Un estudio del MIT sugiere que ChatGPT podría disminuir la actividad cerebral, pero ¿es realmente una amenaza para el pensamiento crítico? Exploramos la historia de los miedos a la tecnología y cómo podemos usar la IA para pensar mejor, fomentando la alfabetización crítica.
Por Marcelo Pérez Peláez (con asistencia de ChatGPT y Gemini)
ChatGPT y el pensamiento crítico: ¿avance o retroceso?
La inteligencia artificial avanza a pasos agigantados, y con ella, también crecen las dudas, temores y esperanzas sobre su impacto en la vida humana. ¿Estamos ante una revolución que potencia nuestras capacidades, o frente a un nuevo opio digital que adormece el pensamiento? Un reciente estudio del MIT Media Lab reabre este debate desde una perspectiva inquietante: el uso de ChatGPT podría estar debilitando funciones cognitivas esenciales como la memoria, la creatividad y la autoría.
El estudio, titulado Your Brain on ChatGPT, aún en etapa de prepublicación y sin revisión de pares, explora cómo reacciona el cerebro cuando se recurre a esta IA para tareas complejas de redacción. Para ello, los investigadores estudiaron a 54 jóvenes adultos que, divididos en tres grupos (ChatGPT, Google Search y sin asistencia), debían redactar ensayos breves al estilo del examen SAT mientras se les realizaba un seguimiento con electroencefalografía (EEG). Los resultados, si bien preliminares, ofrecen señales claras que invitan a la reflexión.
Menos esfuerzo, menos cerebro
El grupo que utilizó ChatGPT presentó una menor conectividad neural en regiones clave del cerebro asociadas a la planificación, la creatividad y la memoria de trabajo. Por contraste, quienes escribieron sin ayuda mostraron un patrón de activación cerebral más robusto y distribuido. Incluso al intercambiar roles —algunos usuarios de IA pasaron a escribir sin ella y viceversa—, se observó que quienes comenzaron con ChatGPT no lograban recuperar por completo su nivel previo de actividad cognitiva.
Más aún: los participantes que utilizaron IA manifestaron menor sentido de autoría sobre sus textos, y fueron calificados por evaluadores humanos como menos originales o “sin alma”. Además, tuvieron mayor dificultad para recordar qué habían escrito minutos después. Estos indicios apuntan hacia un fenómeno que los autores llaman “deuda cognitiva”: cuando delegamos el esfuerzo mental en una máquina, nuestras capacidades se debilitan.
No es la herramienta, es el uso
Pero sería un error apresurado convertir a ChatGPT en el villano de esta historia. Como toda tecnología disruptiva —la imprenta, la calculadora, el buscador de Google—, su impacto depende no tanto de su existencia como de cómo la utilizamos. El propio estudio reveló un dato alentador: aquellos participantes que primero trabajaron por cuenta propia y luego acudieron a la IA (modelo “Brain-to-LLM”) lograron mantener altos niveles de activación cerebral y desempeño.
Esto sugiere que la IA puede ser una herramienta útil si se la integra de forma estratégica y posterior al proceso creativo humano, no como sustituto, sino como ampliación. Usada así, puede enriquecer la escritura, corregir errores, abrir nuevas perspectivas. Pero si la convertimos en primer recurso o en muleta permanente, el costo puede ser alto: una mente menos activa, menos crítica, más perezosa.
Un desafío educativo
La verdadera lección no es tecnológica, sino pedagógica. Frente a este nuevo entorno, la educación no puede seguir enseñando como si estas herramientas no existieran, ni tampoco resignarse a que los alumnos las usen sin control. El desafío es formar ciudadanos capaces de pensar con IA, no gracias a ella. ¿Cómo? Fomentando primero la producción autónoma; incorporando la IA en etapas de revisión o ampliación; y, sobre todo, desarrollando habilidades de lectura crítica, detección de sesgos, y ética del conocimiento.
Es imperioso reconocer que no estamos solo ante una innovación técnica, sino ante un nuevo entorno cognitivo. La mente humana, como ha ocurrido a lo largo de la historia, se adapta, pero necesita guía, práctica y límites claros. La IA puede ser un tutor, pero no debe convertirse en autor.
Una advertencia oportuna
El estudio del MIT debe entenderse como una advertencia a tiempo, no como una condena. Su muestra es pequeña, su foco específico y sus métodos (como la EEG) limitados. Pero la señal es clara: si entregamos sin filtro nuestras tareas cognitivas a sistemas automáticos, podemos terminar atrofiando aquello que nos hace humanos.
La solución no es prohibir, sino educar mejor. Como sociedad, debemos dejar de preguntarnos si la IA nos vuelve más tontos y comenzar a preguntarnos cómo evitamos volvernos intelectualmente dependientes. La historia demuestra que ninguna herramienta, por sí sola, hace daño; lo que hace la diferencia es la cultura que se construye a su alrededor.
El siglo XXI exige mentes activas, autónomas, capaces de dialogar con las máquinas sin renunciar a su criterio ni a su voz. Solo entonces, podremos usar a ChatGPT sin que ChatGPT nos use a nosotros.
NMDQ

