AI NEWS SOCIAL · La Perspectiva Histórica · 2026-05-10 International/LATAM
Atrofia, andamiaje, deuda cognitiva

Atrofia, andamiaje, deuda cognitiva

I. La pregunta de la semana

El sintagma circuló primero en inglés —cognitive debt, brain to mush— y desembocó en castellano traducido a veces como deuda cognitiva, a veces como atrofia, a veces simplemente como la pregunta incómoda de si la inteligencia artificial generativa nos está volviendo más tontos. Entre diciembre de 2024 y septiembre de 2025 la prensa, los repositorios académicos iberoamericanos y los blogs docentes acumularon decenas de piezas que oscilan entre dos polos: la promesa de un asistente que potencia el pensamiento crítico y la advertencia de que la delegación masiva de tareas cognitivas a un modelo de lenguaje produce músculos mentales atrofiados, juicios apresurados y una confianza desplazada del propio razonamiento hacia el output del sistema.

La columna de esta semana toma ese arco y lo lee a tres voces: la retórica que se ha venido pronunciando —con sus picos de pánico y sus regresos al matiz—, la evidencia que se ha venido publicando —con su método y sus muestras—, y el lugar donde ambas dejan de coincidir. La pregunta no es si la IA generativa “afecta” al pensamiento crítico, fórmula que no compromete a nadie; es si la forma en que se ha integrado en la rutina educativa y laboral está produciendo, en una población específica y bajo condiciones específicas, un déficit verificable de algo que sí podemos medir. Y, una vez establecido eso, qué responsabilidad cabe a los modelos, qué cabe al diseño pedagógico, y qué al sujeto que escoge —o no escoge— pulsar el botón de “regenerar respuesta”.

Adelantamos la tesis: la deuda cognitiva existe, pero no es la que el discurso ha enunciado.

II. Lo que hemos venido diciendo

El primer pico hispanohablante llegó en diciembre de 2024, cuando la académica Carla Hernández, del Departamento de Física de la Universidad de Concepción, advirtió en una entrevista que el uso indiscriminado de IA generativa podía erosionar el pensamiento crítico de los futuros profesionales chilenos (¿Pensamiento crítico en riesgo? Cómo la IA generativa impactaría en los futuros profesionales). El registro de esa primera ola era cauto, hipotético, formulado en condicional —“podría”, “impactaría”— pero ya contenía el esquema que iba a repetirse durante diez meses: la IA como amenaza al músculo cognitivo, la universidad como sitio donde la amenaza se manifiesta, la advertencia como género dominante.

Entre enero y marzo de 2025 ese esquema explotó. El conteo trimestral registra 45 piezas hispanohablantes sobre el cluster pensamiento-crítico/IA generativa, casi equilibradas entre encuadres optimistas y críticos. En enero el grupo de Ilaquiche Vega y colaboradores publicó en Polo del Conocimiento un trabajo sobre estrategias didácticas innovadoras mediadas por IA (Revolucionando el pensamiento crítico: estrategias didácticas innovadoras para estudiantes mediante la integración de inteligencia artificial), donde se argumentaba que la herramienta, lejos de erosionar, podía detonar reflexión si el docente la enmarcaba bien. En febrero Pixel-Bit recogió una propuesta sobre competencias en línea, netiqueta y evaluación de información como vías para sostener el pensamiento crítico universitario en presencia de IA (Cómo potenciar el pensamiento crítico en la universidad a través de competencias en línea: evaluación de la información y la netiqueta). Y a fines de febrero comenzó a circular en Substack y blogs especializados la revisión del paper de Lee y colaboradores —Microsoft Research junto a Carnegie Mellon— que reportaba reducción del esfuerzo cognitivo entre trabajadores del conocimiento que usaban IA con alta confianza en el sistema (PAPER REVIEW: ¿Está la IA generativa debilitando nuestra capacidad de pensar? La Paradoja de la Inteligencia Artificial).

La prensa de gran tirada se sumó. El Universal de México publicó en febrero una pieza divulgativa que recogía las preocupaciones (Así es como la IA puede impactar en nuestro pensamiento crítico), y en abril el Diario de Bergantiños amplificó el marco en términos casi tabloide (¿La IA nos está volviendo más tontos? El impacto oculto en nuestra capacidad de pensar). Una pieza de LinkedIn que circuló entre docentes hispanoamericanos plantó la pregunta directamente en la mesa del aula (¿La IA está afectando el Pensamiento Crítico de tus Estudiantes?).

El segundo trimestre marcó la primera inversión visible. El volumen cayó de 45 a 11 piezas y el balance se inclinó hacia el encuadre optimista (8 contra 3). Lo que parecía un consenso crítico se diluyó en un repertorio de matices: en mayo Psychology Today —en su edición en castellano— retomó la metodología socrática como antídoto contra el “aprendizaje invertido” en el que los estudiantes delegan el pensamiento de alto nivel y se quedan con las tareas básicas (Usa la metodología de Sócrates para transformar la interacción con la IA en aprendizaje activo); en junio Wwwhatsnew sintetizó el debate como “riesgos, oportunidades y nuevas habilidades” (La Inteligencia Artificial generativa y el pensamiento crítico: riesgos, oportunidades y nuevas habilidades). El género dominante dejó de ser la advertencia y pasó a ser la receta. Kippel01, en abril, había hecho la transición visible: un titular alarmante coronando una pieza que en el cuerpo recomendaba prácticas concretas de uso supervisado (El uso excesivo de herramientas de inteligencia artificial puede afectar negativamente nuestras habilidades de pensamiento crítico).

El tercer trimestre devolvió el péndulo a una posición intermedia (6 vs 8). El estudio del MIT sobre escritura de ensayos con y sin ChatGPT, publicado en junio de 2024 pero amplificado en agosto de 2025 a través de la cobertura de Magisnet, volvió a poner sobre la mesa la palabra “cognitiva” con anclaje empírico (MIT y Universidad de Navarra asumen el reto de integrar la IA en el aprendizaje). En septiembre la Universidad de los Andes, a través de su revista Puntos, sintetizó dos estudios convergentes preguntando, ya sin condicional, si la IA generativa “acaba” el pensamiento crítico (¿La inteligencia artificial generativa acaba el pensamiento crítico?).

La lectura longitudinal arroja un patrón: la retórica hispanohablante sobre deuda cognitiva no progresó linealmente —no fue del miedo al optimismo ni viceversa— sino que osciló, y en cada oscilación incorporó un poco más de matiz metodológico. Lo que en diciembre de 2024 era “podría afectar” pasó en septiembre de 2025 a “reduce, en estas condiciones, esta variable, en esta población”. Eso es progreso. Pero el progreso retórico no equivale al progreso evidencial, y la diferencia se ha vuelto la zona caliente del debate.

III. Lo que ha venido pasando

Detrás de cada artículo de prensa hay —o debería haber— un estudio. Conviene recorrerlos.

El paper de Hao-Ping Lee, Advait Sarkar, Lev Tankelevitch, Ian Drosos, Stephen Rintel y colaboradores —publicado por Microsoft Research en colaboración con Carnegie Mellon a comienzos de 2025— encuestó a 319 trabajadores del conocimiento que usan IA generativa al menos una vez por semana y analizó 936 ejemplos de tareas reales. El hallazgo: a mayor confianza en la IA, menor esfuerzo cognitivo crítico autorreportado; a mayor autoconfianza en las propias capacidades, mayor esfuerzo crítico. El estudio no demuestra que la IA “atrofie” nada; demuestra que la confianza relativa entre sujeto y sistema modula qué tanto el sujeto se involucra. La revisión disponible en castellano detalla el método con honestidad (PAPER REVIEW: ¿Está la IA generativa debilitando nuestra capacidad de pensar? La Paradoja de la Inteligencia Artificial).

El estudio del MIT Media Lab —liderado por Nataliya Kosmyna y colegas, publicado en junio de 2024 como preprint y comentado durante 2025— midió actividad cerebral mediante EEG en estudiantes escribiendo ensayos en tres condiciones: solos, con motor de búsqueda y con ChatGPT. Los participantes con ChatGPT mostraron menor conectividad neuronal en regiones asociadas al esfuerzo ejecutivo, y al cuarto ensayo —cuando se les pidió escribir sin asistencia— rindieron peor que los que nunca la habían tenido. La cobertura en castellano de Magisnet reporta el dato sin sensacionalismo y lo vincula con la línea de trabajo del Instituto Cultura y Sociedad de la Universidad de Navarra sobre integración pedagógica (MIT y Universidad de Navarra asumen el reto de integrar la IA en el aprendizaje).

Un tercer estudio, citado de forma recurrente en castellano durante el primer trimestre de 2025, fue el publicado por Michael Gerlich en la revista Societies en enero de ese año. Encuestó a 666 participantes en el Reino Unido y encontró correlación negativa significativa entre uso frecuente de herramientas de IA y puntuaciones en tareas de pensamiento crítico, especialmente entre usuarios jóvenes de 17 a 25 años (El uso de la IA y su impacto en el pensamiento crítico: un estudio con Societies). La correlación, conviene insistir, no es causalidad: el estudio no descarta que sean los sujetos con menor desempeño crítico previo quienes más recurran a la herramienta.

Junto a estos tres trabajos circularon publicaciones iberoamericanas más modestas pero importantes para el ecosistema regional. En la RIED-Revista Iberoamericana de Educación a Distancia, Muñoz Martínez, Roger-Monzo y Castelló-Sirvent publicaron en 2025 un análisis sobre IA generativa y pensamiento crítico en educación universitaria a distancia, identificando tanto riesgos como condiciones de aprovechamiento (IA generativa y pensamiento crítico en la educación universitaria a distancia: desafíos y oportunidades). En Polo del Conocimiento, Lagla Chuquitarco y coautores reportaron en marzo un estudio aplicado a bachillerato ecuatoriano con resultados favorables al uso pedagógicamente mediado (Integración de estrategias didácticas impulsadas por inteligencia artificial para el desarrollo del pensamiento crítico en estudiantes de bachillerato). La Revista Iberociencias publicó en agosto un análisis documental que sistematizó la literatura disponible y concluyó que la mayoría de los trabajos reporta efectos contingentes al diseño didáctico, no al “uso” de IA en abstracto (Análisis Documental de la Inteligencia Generativa como Herramienta para la Promoción del Desarrollo del Pensamiento Crítico).

Sobre el terreno, las encuestas docentes y los estudios de caso fueron más sombríos. Tina Grotzer, de la Escuela de Educación de Harvard, advirtió en junio que los niños que no aprenden a soportar la frustración cognitiva antes de adoptar herramientas de IA arriesgan no desarrollar nunca esa tolerancia (Harvard advierte: este error al usar IA podría hacer que los niños sean menos inteligentes en la adultez). En septiembre la Universidad de La Laguna publicó dos trabajos que aplicaron rúbricas de pensamiento crítico a tareas mediadas por IA, encontrando que la calidad del prompt y la fase de la actividad explican más varianza que el uso o no de la herramienta (Evaluación del uso de la IA generativa para fomentar el pensamiento crítico en la educación superior; Fortaleciendo la toma de decisiones financieras con agentes de IA: un estudio de caso sobre el desarrollo del pensamiento crítico).

El cuadro que emerge no es el del titular tabloide. Los estudios serios convergen en una afirmación más austera: el efecto sobre el pensamiento crítico depende de la postura del sujeto frente al sistema, del andamiaje pedagógico que rodea la tarea y de la fase de aprendizaje en que se introduce. Como argumentamos en nuestro briefing del 20 de julio de 2025 sobre alfabetización en IA, la integración acrítica de la herramienta en aulas sin rediseño didáctico es la amenaza verificable, no la herramienta en sí.

IV. Donde se encuentran, donde se pierden

La retórica y la evidencia se encontraron en una palabra: dependencia. Casi todos los textos —los alarmistas, los entusiastas y los académicos— coincidieron en que el problema no es usar IA sino delegar sin volver a recoger lo delegado. Donde se separan es en lo que se hace con esa coincidencia.

El discurso público hispanohablante, especialmente la prensa de gran circulación, transformó “delegación sin recogida” en “atrofia inevitable”. La traducción es deshonesta porque oculta el sujeto: no es el cerebro el que se atrofia por contacto con un modelo de lenguaje, es la práctica de pensar la que se desactiva cuando el entorno —el aula, la oficina, la rutina— deja de exigirla. La diferencia importa. Si el problema es el contacto con la herramienta, la respuesta razonable es restringir, prohibir, vigilar. Si el problema es la práctica desactivada, la respuesta razonable es rediseñar la práctica: cambiar las consignas, cambiar las rúbricas, cambiar el momento del aprendizaje en que la herramienta entra y sale.

Aquí la tradición pedagógica latinoamericana ofrece un anclaje que la conversación globalizada ignoró. En Pedagogía del oprimido, Paulo Freire describió hace casi sesenta años la educación bancaria como aquella en que el educando recibe depósitos de información sin transformarlos en acto cognoscente. La educación bancaria es anterior a ChatGPT por varias décadas; lo que la IA generativa hace es bajar el costo de operarla, automatizar el depósito, abaratar la pasividad. El sistema no inventa la pasividad cognitiva: la encuentra disponible en buena parte del aparato escolar y la potencia. En Pedagogía de la autonomía, Freire insistió en que el rigor metódico con que el educando se aproxima al objeto cognoscible no se reduce al tratamiento superficial del contenido, sino que se extiende a la producción de las condiciones en que ese rigor puede ejercerse. Si esas condiciones no se producen —si la consigna pide un resumen que ChatGPT entrega en seis segundos, si la rúbrica premia el producto pulido y no el proceso accidentado— la herramienta hace exactamente lo que se le pide. La deuda cognitiva no es una propiedad emergente del silicio; es una factura que llega cuando la pedagogía bancaria se encuentra con una infraestructura que la hace casi gratuita.

La segunda zona de pérdida es geográfica. La conversación se construyó con sujetos y muestras del Norte global —Reino Unido en el estudio de Gerlich, Estados Unidos en los de MIT y Microsoft— y se importó a la prensa hispanohablante sin pasar por el tamiz regional. Qué pasa cuando el estudio se aplica a poblaciones con conectividad intermitente, como parte del estudiantado costarricense fuera del Valle Central, o con acceso restringido a versiones gratuitas de los modelos, como buena parte del estudiantado cubano, ningún estudio publicado en 2025 lo midió. Los trabajos de la Universidad de La Laguna y de Polo del Conocimiento son los más cercanos a una mirada regional, pero su alcance es local. La extrapolación del hallazgo del Norte a la realidad latinoamericana sigue siendo, por ahora, un acto de fe.

La tercera pérdida es la del interés. Microsoft Research publicó el estudio sobre delegación cognitiva analizando a sus propios trabajadores del conocimiento. El hallazgo es genuino, pero el productor del estudio también es el productor de la herramienta. El periodismo en castellano reprodujo los resultados sin interrogar la posición del emisor. Que un proveedor reconozca que su producto puede reducir el esfuerzo cognitivo es información valiosa, pero no es neutral: es parte de una estrategia de gobierno reputacional que va por delante de la regulación, y los aspectos sociales de esa estrategia —quién define qué cuenta como “uso responsable”, quién paga el costo del rediseño pedagógico que el proveedor recomienda— quedan fuera del cuadro. El encuentro real entre retórica y evidencia, entonces, sería este: sí hay un efecto, sí es contingente, sí es reversible mediante diseño pedagógico, y sí está siendo administrado por los mismos actores que producen la herramienta. La pérdida ocurre cuando alguno de esos cuatro “sí” se omite.

V. La perspectiva histórica

Mirar el arco completo enseña una cosa que la pieza individual no podía decir. Entre diciembre de 2024 y septiembre de 2025, en menos de un año, la conversación hispanohablante sobre deuda cognitiva e IA generativa atravesó tres etapas: la advertencia condicional, la oscilación matizada y el regreso a una posición intermedia con anclaje empírico parcial. Eso es rápido. La sociología del conocimiento dispone de un nombre para ese ritmo —ciclo de hype— y la pedagogía dispone de otro —reforma sin rediseño—. Ambos describen lo mismo: una tecnología nueva produce alarma, la alarma produce literatura, la literatura produce matices, y al cabo del año queda un sedimento de propuestas concretas y un cementerio de titulares.

La pregunta de fondo, sin embargo, no cambió en doce meses ni cambiará en otros doce. Si el aula —la primaria, la secundaria, la universidad, el curso de capacitación corporativa— sigue pidiendo a sus estudiantes lo que ChatGPT puede entregar en segundos, ChatGPT lo entregará y el estudiante aprenderá a pulsar el botón. Si el aula pide lo que la herramienta no puede entregar —el rigor metódico, el acto cognoscente, la curiosidad que excede el primer borrador—, la herramienta se vuelve andamio. El silicio no decide cuál de las dos cosas pide el aula. Lo decide quien diseña la consigna.

La deuda cognitiva es real. Pero antes de ser una deuda de neuronas, es una deuda de pedagogías que nunca pidieron lo suficiente.

Referencias

  1. ¿Pensamiento crítico en riesgo? Cómo la IA generativa impactaría en los futuros profesionales
  2. Revolucionando el pensamiento crítico: estrategias didácticas innovadoras para estudiantes mediante la integración de inteligencia artificial
  3. Cómo potenciar el pensamiento crítico en la universidad a través de competencias en línea: evaluación de la información y la netiqueta
  4. PAPER REVIEW: ¿Está la IA generativa debilitando nuestra capacidad de pensar? La Paradoja de la Inteligencia Artificial
  5. Así es como la IA puede impactar en nuestro pensamiento crítico
  6. ¿La IA nos está volviendo más tontos? El impacto oculto en nuestra capacidad de pensar
  7. ¿La IA está afectando el Pensamiento Crítico de tus Estudiantes?
  8. Usa la metodología de Sócrates para transformar la interacción con la IA en aprendizaje activo
  9. La Inteligencia Artificial generativa y el pensamiento crítico: riesgos, oportunidades y nuevas habilidades
  10. El uso excesivo de herramientas de inteligencia artificial puede afectar negativamente nuestras habilidades de pensamiento crítico
  11. MIT y Universidad de Navarra asumen el reto de integrar la IA en el aprendizaje
  12. ¿La inteligencia artificial generativa acaba el pensamiento crítico?
  13. El uso de la IA y su impacto en el pensamiento crítico: un estudio con Societies
  14. IA generativa y pensamiento crítico en la educación universitaria a distancia: desafíos y oportunidades
  15. Integración de estrategias didácticas impulsadas por inteligencia artificial para el desarrollo del pensamiento crítico en estudiantes de bachillerato
  16. Análisis Documental de la Inteligencia Generativa como Herramienta para la Promoción del Desarrollo del Pensamiento Crítico
  17. Harvard advierte: este error al usar IA podría hacer que los niños sean menos inteligentes en la adultez
  18. Evaluación del uso de la IA generativa para fomentar el pensamiento crítico en la educación superior
  19. Fortaleciendo la toma de decisiones financieras con agentes de IA: un estudio de caso sobre el desarrollo del pensamiento crítico
  20. Paulo Freire, Pedagogía del oprimido (1968)
  21. Paulo Freire, Pedagogía de la autonomía (1996)
← Volver a esta edición