Vínculo copiado
#ESNOTICIA
#ESNOTICIA
¿Dónde colocar la línea entre pensamiento crítico y trampa cuando esa frontera parece haberse difuminado?
00:10 viernes 21 noviembre, 2025
Colaboradores
Pensar con claridad en pleno 2025 se ha vuelto un galimatías. La irrupción de la Inteligencia Artificial ha puesto al mundo de cabeza: empleos con fecha de caducidad, una vida cotidiana que ya no se entiende sin la digitalización y, quizá donde más duele, un sistema educativo que no sabe muy bien cómo enfrentarse a ella. Hace poco se viralizó el caso de una docente argentina que reprendió con dureza a sus alumnos al descubrir que todas las tareas eran perfectas. La razón: ChatGPT había salvado al grupo entero tras recibir un par de instrucciones sobre qué, cómo y hasta con qué tono debía redactar los trabajos. No es el primer caso. Ni será el último. Esto ya no es un problema local, sino una bola de nieve que rueda en cada rincón del planeta. La pregunta de fondo es: ¿cómo enfrentamos y cómo deberíamos entender la influencia de la Inteligencia Artificial en un mundo educativo en plena transición? ¿Dónde colocar la línea entre pensamiento crítico y trampa cuando esa frontera parece haberse difuminado? Un punto crucial —y no menor— es admitir que el sistema educativo mexicano ha pecado en sus exigencias. Se diseñan tareas para entregar, no para pensar; para llenar rúbricas, no para ejercitar la discriminación de información ni la expresión oral y escrita. Es una escuela más preocupada por calificar productos que por formar criterios. Cuando fui profesor universitario, hace unas cinco vueltas al sol, tampoco entendía del todo cómo operaban estas nuevas inteligencias. Pero intuía un riesgo: que los estudiantes quisieran ser demasiado listos y, con unos cuantos clics, entregaran ensayos impecables sin mover un músculo del pensamiento. A veces ni siquiera leían lo que solicitaban a la IA; mucho menos reparaban en la pérdida para su propio desarrollo académico. Por eso opté por otra vía: evaluaciones escritas a mano, dentro del aula, durante un par de horas. Les pedía llegar con la información “masticada” y, apoyados en la bibliografía, sacar lo mejor de su pluma estudiantil. No era una fórmula infalible, pero abría espacio para algo que ninguna inteligencia artificial puede hacer por ellos: pensar en tiempo real. ¿Cuál era el objetivo? Que fuera del aula el estudiante tuviera capacidad de crítica y decisión por sí mismo y no dependiera de una tecnología. Básico y simple, sí. Quizá era mi afán de mantener ese espíritu humano del pensamiento, también. Pero no intentarlo supone un riesgo mucho mayor: ciudadanos que relegan su capacidad de pensar, que no exploran su creatividad. Por eso integrar la Inteligencia Artificial en los programas de estudio es un trabajo arduo: requiere equilibrio, claridad y una brújula que no pierda de vista sus beneficios y riesgos. Ya lo decía Juan Villoro, escritor mexicano, hace algunos meses en esta misma casa de comunicación: “La Inteligencia Artificial llegó para quedarse; lo único que no debemos perder es lo que nos hace precisamente humanos. Ahí está la clave.” Su impacto en la sociedad no solo es útil: es una necesidad emergente, como en su momento lo fueron el internet, la televisión, la radio o la locomotora. La tarea ahora es discernir con claridad que la IA es un apoyo, no un sustituto de nuestras capacidades. Históricamente, la humanidad ha requerido apoyarse en otros para realizar casi cualquier actividad, desde las tareas domésticas hasta los oficios y profesiones más complejos. Contar con una ayuda —otra voz, otros ojos, otra perspectiva— no solo es válido, sino saludable. Un pianista no deja de ser músico por emplear un afinador digital; un escritor no pierde su estilo por escuchar a su editor; un médico no deja de ser el responsable último del diagnóstico por consultar a un colega. Pero ninguna de estas herramientas sustituye la sensibilidad, el juicio o la responsabilidad de quien las usa. Ahí radica la clave: el límite ético empieza donde la herramienta pretende ocupar el lugar del criterio humano. Por ello, y volviendo al terreno educativo, urge que los estudiantes de hoy comprendan que las inteligencias artificiales pueden potenciar sus capacidades, pero el pensamiento crítico sigue siendo exclusivamente suyo. El sistema educativo, por su parte, debe apostar por una formación ética frente a las tecnologías: no minimizar su potencial, no estigmatizar su naturaleza y, sobre todo, formar ciudadanos capaces de discernir, de hacer preguntas incómodas y de asumir la responsabilidad de sus decisiones en un mundo cada vez más digital. La IA ayuda. Definitivamente. Pero mientras la decisión siga siendo nuestra, incluso a través de la pantalla, mantendremos eso tan humano que nos tiene hoy debatiendo sobre este tema: pensar.