02 marzo 2026

Tres errores críticos al introducir IA en el aula

La Inteligencia Artificial ya llegó a las aulas. El reto no es su existencia, sino cómo la integramos. Para aprovechar su potencial, debemos evitar tres errores críticos que frenan el aprendizaje.



1. Prohibir sin enseñar

Restringir el uso de la IA solo desplaza la herramienta fuera del aula. Si el alumno no recibe guía, la usará a escondidas y sin criterio ético.

  • El problema: Se crea una brecha entre la realidad tecnológica y el entorno académico.

  • La solución: Enseñar alfabetización digital.

  • Ejemplo: En lugar de vetar ChatGPT, analiza con tus alumnos una respuesta generada por la IA para detectar errores lógicos o sesgos de información.


2. Usarla como sustituto (La ley del mínimo esfuerzo)

Si una tarea se resuelve con un solo prompt, el alumno deja de pensar. La IA debe ser un motor, no el conductor.

  • El problema: Se prioriza la entrega rápida sobre el esfuerzo cognitivo.

  • La solución: Diseñar actividades que requieran la IA para expandir ideas, no para reemplazarlas.

  • Ejemplo: Pide a los alumnos que generen un esquema inicial con IA y luego deban ampliarlo, contrastarlo con fuentes físicas y defenderlo oralmente.


3. Mantener evaluaciones obsoletas

Seguir calificando solo el producto final (un ensayo, un examen de memoria) es un error en la era de la IA. Si solo importa el resultado, el incentivo para usar atajos es total.

  • El problema: Ignoramos el razonamiento y la creatividad del proceso.

  • La solución: Evaluar el progreso y la metodología.

  • Ejemplo: Califica el diario de aprendizaje, los borradores intermedios y la capacidad del alumno para explicar cómo llegó a la conclusión final.


La IA debe ser una aliada, no un atajo. El objetivo docente hoy es rediseñar las clases para que el pensamiento crítico, la colaboración humana y la creatividad sigan siendo los pilares fundamentales.


26 febrero 2026

Del copia-pega al pensamiento crítico: Cómo enseñar a pensar en la era ChatGPT

Hay un momento incómodo que muchos docentes ya han vivido.

Entregas de trabajos impecables, una redacción perfecta, argumentos bien estructurados y demasiado limpio todo. Y la sensación interna que tenemos: esto no lo ha escrito solo él o ella.

La reacción rápida es la de prohibir, bloquear o vigilar. Pero la pregunta importante no es si los alumnos usan ChatGPT. La pregunta es otra: ¿están pensando mientras lo usan?.

Porque el problema no es la herramienta. Es el uso que hacemos de ella.


El problema no es la IA: es cómo la estamos usando

Antes fue Wikipedia. Antes aún, el “copia y pega” de enciclopedias. La tecnología siempre ha ofrecido atajos. Lo nuevo ahora no es el atajo, es su potencia.

ChatGPT, como ejemplo, no solo copia información: la reorganiza, la redacta y la presenta con una apariencia brillante. Y eso puede crear una ilusión peligrosa: parecer competente sin haber comprendido nada.

Entender no es lo mismo que producir texto correcto. Si no rediseñamos las tareas, la IA se convierte en sustituto del pensamiento. Si las rediseñamos bien, puede convertirse en acelerador del pensamiento. Y esa diferencia es enorme.




Qué significa realmente pensamiento crítico en 2026


Decir “hay que trabajar el pensamiento crítico” suena bien. Pero ¿qué significa hoy, con inteligencia artificial en el aula?

Significa, primero, dudar de lo que parece correcto. Un texto bien escrito no es necesariamente profundo, ni riguroso, ni verdadero. Enseñar a verificar fuentes, a contrastar datos, a detectar contradicciones se vuelve esencial.

Significa también formular mejores preguntas. Pensar bien empieza preguntando mejor. Un alumno que sabe diseñar un buen prompt ya está estructurando su pensamiento. No es magia. Es método.

Y, sobre todo, significa transformar información, no repetirla. Analizar. Comparar. Reinterpretar. Construir una postura propia. La IA puede generar contenido, pero la toma de postura sigue siendo humana. Ahí está la frontera.


La nueva competencia clave: pensar con IA, no contra ella

El pensamiento crítico no desaparece con ChatGPT. Se vuelve imprescindible.

Antes enseñábamos a buscar información. Ahora tenemos que enseñar a dialogar con ella.

La alfabetización en inteligencia artificial no es aprender a usar botones. Es aprender a cuestionar resultados, a detectar sesgos, a mejorar preguntas, a asumir responsabilidad sobre lo que se entrega.

La tecnología no elimina la necesidad de pensar. La amplifica. Y quizá, si lo miramos bien, este no sea el fin del pensamiento crítico en la educación. Puede que sea el momento en el que, por fin, se vuelva irrenunciable.


20 febrero 2026

¡Profe!: Tu guía de "Super-Prompts" para investigar en clase.

Si eres docente y sientes que el suelo se mueve bajo tus pies, es normal. Estamos aprendiendo a volar mientras construimos el avión. Para integrar la IA con éxito, no necesitas ser ingeniero, necesitas ser pedagogo.






No le pidas a la IA que haga tu trabajo; pídele que sea tu entrenador personal, tu abogado del diablo o tu compañero de debate.

1. El prompt del "Entrenador de escritura"

En lugar de pedirle que escriba el ensayo, pídele que te ayude a mejorar el tuyo.

Prompt: "He escrito este párrafo sobre [tema]. No lo corrijas tú. Analízalo y dime tres puntos débiles en mi argumentación y dos sugerencias para que mi lenguaje sea más formal. Luego, hazme una pregunta difícil para ayudarme a profundizar."

2. El prompt del "Abogado del diablo"

Para evitar quedarnos con una sola visión de la realidad.

Prompt: "Voy a defender la siguiente tesis: [tu idea]. Actúa como un experto crítico y dame tres argumentos sólidos que contradigan mi postura. Ayúdame a encontrar las debilidades de mi razonamiento para que pueda investigar más."

3. El prompt del "Explicador de conceptos"

Para cuando un libro de texto se pone demasiado denso.

Prompt: "Explícame el concepto de [ej. Fotosíntesis/Leyes de Newton] usando una analogía relacionada con [un deporte/un videojuego/cocina]. Después de la explicación, hazme una pregunta para comprobar si lo he entendido."

4. El prompt del "Detective de fuentes"

Para aprender a no creerse todo lo que dice la pantalla.

Prompt: "Genera un resumen de 200 palabras sobre [acontecimiento histórico]. Al final, indica qué tres datos de ese resumen son más propensos a ser errores (alucinaciones) y dime en qué tipo de libros o archivos reales debería buscar para confirmarlos."

 

Cómo evaluar esta actividad (sin morir en el intento)

Para que esta guía funcione, te sugiero un cambio rápido en la entrega del trabajo:

  • El "Ticket de salida": El alumno no entrega solo el texto final. Debe entregar el historial de su conversación con la IA (o capturas de pantalla) donde se vea cómo ha ido refinando sus preguntas.

  • La reflexión: Añade una pregunta obligatoria al final del ejercicio: "¿En qué momento la IA te dio una respuesta que te pareció sospechosa o incompleta y cómo lo solucionaste?".