Alfabetizar contra la deuda: ¿puede la educación crítica en IA ser la vacuna contra la dependencia cognitiva?
Hay una imagen que circula en los pasillos digitales del debate sobre inteligencia artificial desde hace algunos meses: la del cerebro endeudado. Un estudio del MIT Media Lab que midió la actividad neuronal de personas escribiendo ensayos con y sin asistencia de modelos de lenguaje encontró que los usuarios de ChatGPT mostraban una conectividad cerebral significativamente menor que quienes escribían sin asistencia, y, más inquietante aún, que esa reducción persistía incluso cuando se les pedía escribir después sin la herramienta Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task. Los investigadores acuñaron una frase incómoda: deuda cognitiva. Como toda deuda, se acumula silenciosamente, paga intereses compuestos y, llegado cierto umbral, secuestra la libertad del deudor.
La metáfora financiera no es inocente. Hablar de deuda implica que alguien presta, alguien toma prestado, alguien cobra. En América Latina, donde la palabra deuda arrastra cicatrices históricas que van desde el FMI hasta la dolarización de Ecuador, importar este marco para pensar la alfabetización en IA exige una pregunta que la conversación anglosajona no se está haciendo con suficiente seriedad: ¿quién es el acreedor cognitivo? Porque si el modelo que delegamos pensamiento crítico nos cobra después en forma de capacidad atrofiada, conviene mirar de cerca quién diseñó el contrato, en qué idioma está escrito y bajo qué jurisdicción se ejecuta.
Este ensayo argumenta una tesis estrecha pero, creo, urgente: la alfabetización en IA, tal como se está formulando en la mayoría de los marcos curriculares y campañas de divulgación que llegan a la región, está mal calibrada para enfrentar la deuda cognitiva. Enseña a usar; debería enseñar a no usar. Enseña prompts; debería enseñar metacognición. Y mientras tanto, la accesibilidad de las versiones gratuitas de los modelos —ese gran nivelador aparente— está produciendo una forma de inclusión que se parece sospechosamente a la inclusión financiera predatoria de los años noventa: te dan tarjeta de crédito sin explicarte la tasa.
La trampa de la accesibilidad como virtud
Durante años, el discurso dominante sobre IA en América Latina celebró la accesibilidad como un logro civilizatorio. Y en cierto sentido lo es: un estudiante en Tegucigalpa puede consultar el mismo modelo que un profesional en Palo Alto. La asimetría histórica del acceso a información parecía, por primera vez, comprimirse. La UNESCO, en sus documentos sobre competencias digitales, ha insistido en que la alfabetización en IA debe ser un derecho universal y no un privilegio AI Competency Framework for Teachers. El argumento es legítimo. El problema es que confunde acceso a la herramienta con acceso a la competencia para usarla críticamente.
Aquí conviene introducir una distinción que el debate latinoamericano apenas comienza a hacer. Hay tres capas de acceso: acceso al servicio (tener internet, tener un dispositivo, tener una cuenta), acceso al uso (saber escribir un prompt, obtener una respuesta), y acceso a la metacompetencia (saber evaluar la respuesta, saber cuándo desconfiar, saber cuándo no preguntar). En la mayoría de los países de la región, la primera capa está razonablemente extendida, la segunda se está masificando con rapidez, y la tercera prácticamente no existe como objeto pedagógico. Lo que la deuda cognitiva nos obliga a aceptar es que las dos primeras capas, sin la tercera, no son progreso: son endeudamiento acelerado.
García Canclini, hace casi una década, advertía que los conocimientos necesarios para desempeñarnos como ciudadanos se estaban estrechando por la sustracción y el ocultamiento de datos por parte de corporaciones y gobiernos Ciudadanos reemplazados por algoritmos. El diagnóstico se queda corto frente a lo que está pasando ahora. No es solo que los datos se ocultan; es que la operación misma de pensar se externaliza, y la externalización es tan eficiente que el usuario no nota la atrofia hasta que es demasiado tarde para revertirla sin esfuerzo desproporcionado.
Qué dice exactamente la evidencia (y qué no dice)
Conviene ser preciso, porque la frase deuda cognitiva ya está siendo usada en redes sociales como sinónimo de “la IA te hace estúpido”, y esa simplificación es tan peligrosa como el problema que pretende denunciar. El estudio del MIT, publicado en preprint en junio de 2025, midió actividad EEG en 54 participantes durante varias sesiones de escritura, encontrando reducciones en bandas alpha y theta asociadas a procesamiento creativo y memoria de trabajo Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task. Los autores fueron cuidadosos en señalar limitaciones: muestra pequeña, tarea específica, ausencia de seguimiento longitudinal extendido. No es, todavía, una verdad establecida.
Pero el estudio del MIT no está solo. Una investigación de Microsoft Research y Carnegie Mellon, publicada a inicios de año, encontró que los trabajadores del conocimiento que más confían en herramientas de IA generativa reportan menos esfuerzo cognitivo crítico y, paradójicamente, menos confianza en sus propias capacidades cuando se les retira la asistencia The Impact of Generative AI on Critical Thinking. La convergencia de hallazgos sugiere un patrón: no es que la IA destruya la capacidad de pensar, es que reorganiza cuándo y cómo se ejerce, y esa reorganización tiene costos que se distribuyen desigualmente.
¿Quién paga más? Aquí la evidencia internacional empieza a iluminar zonas que nos conciernen directamente. Los mismos estudios que advierten sobre la deuda cognitiva sugieren que los usuarios con menor formación previa en pensamiento crítico son los más vulnerables a delegar acríticamente, mientras que aquellos con sólida formación previa usan la IA como amplificador sin perder capacidad propia The Impact of Generative AI on Critical Thinking. Si esto es cierto —y la evidencia es preliminar pero consistente— entonces la IA no es neutral respecto a la desigualdad cognitiva preexistente: la profundiza. Los ya alfabetizados se vuelven más capaces; los menos alfabetizados se vuelven más dependientes. La herramienta amplifica el privilegio que encuentra.
La paradoja del freemium intelectual
Hay una capa adicional que casi no se discute en la región y que conviene nombrar sin pudor. Las versiones gratuitas de los modelos —GPT-4o-mini para usuarios sin suscripción, Gemini gratuito, Claude con límites diarios— están deliberadamente calibradas para optimizar enganche, no profundidad. Responden rápido, suenan seguras, raramente expresan duda, casi nunca devuelven la pregunta al usuario. La OpenAI ha sido pública sobre los ajustes de tono de sus modelos para maximizar la satisfacción del usuario, y los reportes sobre la “sicofancia” de GPT-4o —su tendencia a halagar y a estar siempre de acuerdo— forzaron a la compañía a retroceder parcialmente en abril de 2025 Sycophancy in GPT-4o: what happened and what we’re doing about it.
Esto importa porque la mayoría de los usuarios latinoamericanos no paga suscripción. Según datos relevados por SimilarWeb y reportados a lo largo de 2025, América Latina representa una porción creciente del tráfico de ChatGPT pero una fracción mínima de los suscriptores de pago. La consecuencia es estructural: la región está siendo alfabetizada por la versión de los modelos que está diseñada para gustar, no para enseñar. La IA que el adolescente de Caracas o el oficinista de Quito experimenta como “la IA” es un asistente entrenado para acomodarse a su pregunta, no para problematizarla.
Zuboff describió hace años cómo el capitalismo de vigilancia opera extrayendo excedente conductual a cambio de servicios aparentemente gratuitos The Age of Surveillance Capitalism. La lógica se traslada con precisión inquietante: los modelos gratuitos no son gratuitos, se pagan en datos de entrenamiento, en exposición a futuras estrategias de monetización y, ahora sabemos, en deuda cognitiva. El estudiante que delega sus tareas escolares al modelo gratuito no está obteniendo educación a costo cero; está pagando con la moneda de su propio desarrollo cognitivo, en una transacción cuyo contrato no firmó conscientemente.
Crawford lo formula en términos más generales cuando describe el “determinismo encantado” que rodea los discursos de IA: nos piden enfocarnos en lo innovador del método y nunca en el propósito de la cosa misma, oscureciendo el poder y cerrando la posibilidad de escrutinio crítico The Atlas of AI. La accesibilidad universal de los modelos es, en términos de Crawford, el encantamiento perfecto: parece tan obviamente bueno que cualquier pregunta sobre su política se vuelve impertinente.
Hacia una alfabetización que enseñe a desconfiar
¿Cómo se construye una alfabetización en IA que sea inmune a la deuda cognitiva, o al menos capaz de monitorearla? La respuesta convencional, que aparece en marcos curriculares desde la UNESCO hasta los ministerios de educación regionales, gira alrededor de tres ejes: comprender qué es la IA, saber usarla productivamente, evaluar consideraciones éticas AI Competency Framework for Teachers. El problema con esta arquitectura es que trata al estudiante como un futuro usuario competente, no como un sujeto cuyo aparato cognitivo está siendo activamente reconfigurado por la herramienta que aprende a usar.
Una alfabetización adecuada al problema de la deuda cognitiva tendría que añadir, al menos, tres componentes que hoy están mayormente ausentes. Primero, una pedagogía de la desconfianza productiva: enseñar a reconocer cuándo una respuesta es demasiado fluida, demasiado completa, demasiado conveniente. La señal de alarma no es el error obvio del modelo, sino la respuesta que suena tan bien que desactiva el escrutinio. Segundo, una pedagogía del intervalo: el ejercicio sistemático de pensar primero sin la herramienta, formular la propia respuesta provisional, y solo después consultar al modelo, no para obtener la respuesta sino para confrontarla con la propia. Tercero, una pedagogía de la abstención: identificar las situaciones en las que usar la IA es estrictamente contraproducente para el desarrollo de una capacidad —escribir el primer párrafo de un argumento original, intentar recordar un concepto antes de buscarlo, formular una hipótesis antes de pedir confirmación.
Freire, hace medio siglo, distinguió entre la educación bancaria —que deposita información en un sujeto pasivo— y la educación liberadora, que parte del nombrar el mundo como acto cognoscitivo Pedagogía del oprimido. La ironía amarga es que la IA generativa, en su uso por defecto, es la educación bancaria llevada a su forma técnica más perfecta: deposita respuestas en un sujeto cada vez más pasivo, y lo hace con tal eficiencia que el sujeto experimenta el depósito como liberación. Una alfabetización crítica en IA, en términos freireanos, no puede limitarse a enseñar a usar el depósito; tiene que reactivar la capacidad de nombrar el mundo antes de que el modelo lo nombre por nosotros.
Esto no es retórica. Hay propuestas concretas que ya se están experimentando. Algunas universidades europeas han comenzado a integrar lo que llaman “ejercicios de fricción deliberada” en sus cursos: tareas diseñadas explícitamente para ser difíciles de delegar, no porque la IA no pueda hacerlas, sino porque hacerlas con IA elimina su valor pedagógico. La idea es trasladable a contextos no formales: campañas de divulgación, formación profesional continua, programas de alfabetización digital comunitaria. Pero requiere abandonar el supuesto, hoy hegemónico, de que la alfabetización en IA es esencialmente una alfabetización de uso.
El estado de la evidencia en la región
Aquí conviene aplicar la primera lente LATAM de manera explícita: la disponibilidad. ¿Qué investigación local existe sobre deuda cognitiva en América Latina? La respuesta honesta es: muy poca, y dispersa. La UNAM, la UBA, la Universidad de Chile y algunos centros de investigación brasileños han comenzado a publicar trabajos sobre uso de IA generativa en contextos educativos, pero los estudios específicamente diseñados para medir efectos cognitivos a mediano y largo plazo en poblaciones latinoamericanas son casi inexistentes. Lo que tenemos es la traducción de hallazgos del Norte global, aplicados acríticamente a contextos cuya estructura cognitiva y educativa es radicalmente distinta.
Esto importa porque los estudios disponibles —el del MIT, el de Microsoft/CMU— fueron hechos con poblaciones que tienen formación previa en pensamiento crítico, acceso a versiones de pago de los modelos y entornos institucionales que regulan el uso. Si la deuda cognitiva ya es preocupante en esas poblaciones, hay razones empíricas para sospechar que en contextos con menor formación previa, uso predominante de versiones gratuitas y ausencia de regulación institucional, la deuda se acumula más rápido y con menos posibilidad de pago. Pero esa sospecha es, todavía, sospecha: no tenemos datos regionales que la confirmen ni la refuten. La urgencia de investigación local no es académica; es civilizatoria.
El Índice Latinoamericano de Inteligencia Artificial (ILIA) ubica a Argentina en el cuarto puesto regional con 67.5 sobre 100, y a El Salvador en el puesto 16 con 42.9, mostrando una dispersión interna que el promedio regional oculta. Pero el ILIA, como todos los índices de “preparación para IA”, mide infraestructura, talento, gobernanza y adopción; no mide deuda cognitiva. Es decir: medimos lo que se gana al adoptar IA, no lo que se pierde. Esa asimetría en lo que decidimos medir es, en sí misma, un indicador de la captura ideológica del debate.
La segunda lente que conviene aplicar es la de accesibilidad, pero en un sentido más profundo que el habitual. Accesibilidad no es solamente “que la gente pueda usar”; es “que la gente pueda usar de modo que no quede atrapada”. El estado actual del acceso en la región —usuarios masivos en versiones gratuitas optimizadas para engagement, sin formación previa en pensamiento crítico computacional, sin marcos institucionales que ofrezcan contrapeso— es accesibilidad en el sentido superficial y antiaccesibilidad en el sentido profundo. Cobo lo formuló con precisión: una educación meramente instrumental nos vuelve vulnerables y fácilmente manipulables; la línea alternativa es desarrollar el pensamiento crítico y autónomo Acepto las condiciones: usos y abusos de las tecnologías digitales. La cuestión es que esa línea alternativa exige inversión pública, voluntad política y un marco conceptual que hoy no es el dominante.
Contraargumentos honestos
Sería deshonesto presentar este argumento sin enfrentar sus objeciones más serias. La primera es la objeción del falso problema: cada tecnología nueva produjo pánicos sobre atrofia cognitiva (la escritura según Sócrates, la imprenta según los monjes, la calculadora según los maestros de los setenta, internet según los catedráticos de los noventa), y la humanidad sobrevivió cada uno de ellos sin pérdida neta de capacidad. ¿Por qué sería diferente esta vez?
La respuesta requiere honestidad. Es posible que no sea diferente. Es posible que en veinte años miremos los estudios sobre deuda cognitiva con la misma sonrisa con que hoy leemos las advertencias de Sócrates sobre la escritura en el Fedro. Pero hay tres diferencias específicas que conviene nombrar antes de descartar la preocupación. Primero, la velocidad de adopción: las tecnologías anteriores se difundieron en décadas, ChatGPT alcanzó cien millones de usuarios en dos meses, sin tiempo institucional para construir contrapesos pedagógicos. Segundo, el rango cognitivo afectado: la escritura externalizó memoria, la calculadora externalizó aritmética, internet externalizó búsqueda; la IA generativa externaliza la operación misma de articular un pensamiento, que es más constitutiva de la subjetividad que cualquier capacidad anterior externalizada. Tercero, el modelo de negocio: las tecnologías anteriores no estaban diseñadas para optimizar engagement medido por permanencia del usuario, los modelos actuales sí.
La segunda objeción es más sofisticada: lo que llamamos deuda cognitiva podría ser, en realidad, liberación cognitiva —el cerebro humano dejando de hacer tareas de bajo valor para concentrarse en tareas de mayor valor. Es el argumento de la complementariedad: la IA hace lo rutinario, el humano hace lo creativo. La objeción tendría fuerza si la evidencia empírica mostrara ese desplazamiento. Lo que muestra, en cambio, es algo más inquietante: las personas no parecen estar usando el tiempo cognitivo liberado para tareas de mayor valor; lo están usando para más consumo de contenido, más sesiones con el modelo, más delegación adicional. El cerebro liberado no se eleva; se relaja, y la relajación crónica tiene costos.
La tercera objeción, la más incómoda, es de clase: ¿no es elitista exigir que la gente piense por sí misma cuando la IA puede hacer el trabajo? ¿No es una versión cognitiva del lujo de cocinar en casa cuando hay delivery? Aquí conviene devolver la pregunta. Pensar por uno mismo no es un lujo; es la condición de posibilidad de la ciudadanía democrática. Si en algún momento llegamos a tratar el pensamiento autónomo como un lujo opcional, la deuda cognitiva habrá dejado de ser una metáfora y se habrá convertido en una formación social.
La política pública que no existe
Aplicando una tercera lente LATAM, la de anticipación, conviene preguntar: ¿qué institución, qué marco normativo, qué política pública en América Latina está preparada para responder a la deuda cognitiva? La respuesta corta es: ninguna. Las estrategias nacionales de IA de la región —el Plan Nacional de Argentina, la Agenda Digital El Salvador 2020-2030, la Política Integral cubana de Informatización— se concentran en adopción, infraestructura, talento técnico y gobernanza de datos. La alfabetización crítica aparece, cuando aparece, como subcapítulo menor. La metacognición frente a IA no aparece en absoluto.
Esto no es necesariamente reproche; es diagnóstico. Los marcos de política pública están diseñados con dos décadas de retraso respecto al problema que pretenden gobernar. Cuando se formulan estrategias nacionales de IA, se piensan en términos de competitividad económica y servicios públicos digitales, no en términos de salud cognitiva de la población. Pero si los hallazgos sobre deuda cognitiva se confirman en próximos años con muestras más amplias y diseños longitudinales, la salud cognitiva pública va a tener que entrar al lenguaje de las políticas, así como en el siglo XX entró la salud mental.
Hay un precedente útil: la alfabetización digital de los años dos mil. Cuando internet se masificó, varios países latinoamericanos —Uruguay con Plan Ceibal, Argentina con Conectar Igualdad, Brasil con diversos programas— montaron campañas públicas de formación digital con cobertura nacional y financiamiento sostenido. No fueron perfectas, pero produjeron una capa de competencia básica que hoy todavía sostiene la participación digital de millones. La pregunta es si la región es capaz de montar una operación equivalente para alfabetización crítica en IA, en una escala temporal mucho más comprimida y con un objeto pedagógico mucho más resbaladizo. No alfabetizar en el uso —eso ya está pasando solo, vía adopción de mercado— sino alfabetizar en la metacognición, en la abstención, en la desconfianza productiva. El presupuesto, las instituciones y la voluntad política para una operación así, hoy, no existen en casi ningún país de la región. Esa ausencia es, en sí misma, una decisión: la decisión implícita de dejar que el mercado alfabetice, con las consecuencias que el mercado produce.
La cuarta lente: alternativas que están emergiendo
Aplicando una cuarta lente LATAM, la de alternativas, conviene resistir la tentación catastrofista y nombrar lo que sí está pasando. Hay experimentos locales que apuntan en la dirección correcta. Algunas redes de bibliotecas públicas en Colombia y México están integrando módulos de pensamiento crítico frente a IA en sus programas de alfabetización mediática. Organizaciones de la sociedad civil como Derechos Digitales o Hiperderecho están produciendo materiales accesibles sobre evaluación crítica de salidas de modelos generativos. Algunas iniciativas regionales han propuesto principios de IA centrados en derechos humanos que, aunque centrados en gobernanza, incluyen menciones a la formación pública crítica Recomendación sobre la ética de la inteligencia artificial.
Pero estas iniciativas, hoy, suman a una capa fina sobre una población masivamente expuesta. El problema no es que no haya alternativas; es que las alternativas operan a escala artesanal mientras la deuda cognitiva se acumula a escala industrial. La asimetría de escala es, en sí misma, una forma de derrota. Una campaña pública de alfabetización crítica en IA que estuviera a la altura del problema requeriría coordinación regional, financiamiento sostenido, integración con los sistemas formales y no formales de educación, producción de contenidos en español y portugués pensados desde la región y no traducidos del inglés, y una arquitectura institucional que hoy no existe. Es decir: requeriría tratar la alfabetización crítica en IA como infraestructura pública crítica, no como contenido optativo.
Implicaciones y preguntas abiertas
Si la deuda cognitiva es un fenómeno real —y la evidencia preliminar, aunque incompleta, es suficientemente robusta para tomarla en serio— entonces la región enfrenta una bifurcación que conviene nombrar sin eufemismos. Una rama lleva a una población dividida entre una minoría metacognitivamente alfabetizada que usa la IA como amplificador sin perder capacidad propia, y una mayoría dependiente que perdió, sin darse cuenta, capacidades que antes tenía. La otra rama exige construir, a contracorriente del mercado, una alfabetización crítica masiva que enseñe no solo a usar sino a no usar, no solo a preguntar sino a desconfiar, no solo a delegar sino a regular conscientemente la delegación.
La primera rama es la que estamos transitando por defecto. La segunda requiere decisiones políticas que hoy nadie está tomando en la región a la escala necesaria. La pregunta no es si la IA es buena o mala —esa pregunta ya no es interesante— sino si la región es capaz de construir, en tiempo récord, los anticuerpos cognitivos colectivos que el resto del mundo tampoco tiene pero que algunos países empezarán a construir antes que nosotros.
Quedan preguntas abiertas que vale la pena formular sin pretender resolverlas. Primera: ¿es posible diseñar versiones de modelos de lenguaje que estén optimizadas pedagógicamente —que devuelvan la pregunta, que expresen incertidumbre, que se rehúsen a responder cuando responder sería contraproducente—, o el modelo de negocio dominante hace eso estructuralmente imposible? Segunda: ¿hay umbrales de edad por debajo de los cuales la exposición a IA generativa debería ser regulada como se regula la exposición a otros productos con riesgo de dependencia, y si los hay, qué institución regional tiene legitimidad para establecerlos? Tercera: ¿cómo se mide, operativamente, la salud cognitiva poblacional, de modo que pueda convertirse en indicador de política pública y no solo en metáfora? Cuarta: ¿qué papel juegan los sindicatos, los colegios profesionales y las organizaciones de trabajadores del conocimiento en la defensa de las capacidades cognitivas de sus afiliados frente a presiones de productividad que premian la delegación a IA?
La metáfora de la deuda, importada del lenguaje financiero, tiene un último filo que conviene afilar antes de cerrar. En toda relación de deuda, el deudor pierde grados de libertad: cada cuota futura está comprometida antes de ganarse. La deuda cognitiva, si se confirma como fenómeno persistente, opera del mismo modo: cada respuesta delegada compromete una pequeña fracción de capacidad futura. El cerebro endeudado, como el país endeudado, es un cerebro con soberanía reducida. La alfabetización crítica en IA, si va a ser algo más que una capacitación de uso, tiene que ser entendida como una pedagogía de la soberanía cognitiva. No es retórica heroica: es la formulación mínima del problema que tenemos por delante.
Hay, finalmente, una ironía que vale la pena registrar. Este ensayo, como cualquier texto producido en 2026, podría haber sido escrito en colaboración con un modelo de lenguaje. La pregunta sobre cómo se escribió no es trivial; es exactamente la pregunta pedagógica que el ensayo intenta plantear. La diferencia entre escribirlo con la IA y escribirlo contra la IA —pensándolo primero, formulando los argumentos sin asistencia, usando el modelo solo para confrontar y nunca para sustituir— es la diferencia que la alfabetización crítica que defiendo tendría que enseñar. Esa diferencia no se aprende usando más IA. Se aprende, como casi todo lo importante, ejerciendo la capacidad antes de delegarla.