Deuda cognitiva en el aula: la universidad latinoamericana ante la paradoja de la inteligencia artificial
Hay una imagen que conviene fijar antes de cualquier argumento: una estudiante de segundo año de una universidad pública mexicana, salvadoreña o argentina, abre ChatGPT en la versión gratuita —la única a la que tiene acceso— y resuelve en diez minutos una tarea que le habría tomado tres horas. Obtiene una calificación decente. Repite el procedimiento durante todo el semestre. Al final del año, ha aprobado sus materias. La pregunta incómoda, que la mayoría de las autoridades universitarias prefiere no formular en voz alta, es qué exactamente ha aprendido. Y la pregunta más incómoda todavía, porque desplaza la culpa del lugar cómodo donde suele depositarse: qué exactamente le hemos enseñado nosotros, como institución, a hacer.
El debate global sobre la deuda cognitiva —el costo intelectual diferido que paga quien delega de manera sistemática el trabajo de pensar a un sistema externo— ha entrado en la conversación universitaria latinoamericana con un retraso de varios meses respecto al circuito anglosajón y, peor aún, con un encuadre prestado. Las traducciones llegan en forma de papers del MIT Media Lab sobre la actividad neuronal de estudiantes que escriben ensayos con asistencia de modelos de lenguaje Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task, reportes de la OCDE sobre habilidades del siglo XXI, y artículos de opinión que oscilan entre el pánico moral y la celebración tecnoutópica. Lo que rara vez llega, junto con la evidencia, es la lente: la región tiene un problema distinto, no solo una versión más pobre del mismo problema.
Este ensayo parte de una tesis que conviene declarar de entrada para que el lector pueda discutirla a medida que avanza: la deuda cognitiva, en la universidad latinoamericana, no es principalmente un problema de mala praxis estudiantil ni de fallas tecnológicas. Es un problema de diseño institucional. Y la institución que no se haga cargo de ese diseño —que se limite a prohibir, a vigilar, o, en el otro extremo, a “integrar acríticamente la IA al currículo” como reza el cliché de los talleres de innovación docente— estará firmando, sin saberlo, un pagaré cuyo cobro recaerá sobre sus egresados y sobre el sistema productivo regional una década más tarde.
La paradoja de la accesibilidad
El argumento estándar contra la preocupación por la deuda cognitiva en América Latina se construye, casi siempre, sobre una premisa razonable: la IA generativa es la primera tecnología educativa de alcance masivo que no requiere licencias institucionales costosas, plataformas propietarias caras ni infraestructura sofisticada. Un estudiante con un teléfono Android de gama media y una conexión irregular puede acceder a un tutor disponible las veinticuatro horas, en español, capaz de explicarle cálculo diferencial o de ayudarle a estructurar un ensayo. Frente a un sistema universitario que arrastra problemas históricos de calidad, masificación sin recursos y altísimas tasas de deserción, esta accesibilidad parece un regalo del cielo.
La paradoja, sin embargo, está construida en la propia palabra accesibilidad. La mayoría de los estudiantes universitarios latinoamericanos no accede a las versiones más sofisticadas de los modelos —las que requieren suscripción de veinte dólares mensuales, una fracción improbable para quien apenas costea el transporte al campus. Accede a las versiones gratuitas, que son, por diseño, modelos más antiguos, con más alucinaciones, menos capacidad de razonamiento extendido, y, crucialmente, sin las funciones que más se acercan al andamiaje pedagógico: planes de estudio personalizados, modos socráticos, capacidad de mantener contexto largo a lo largo de un semestre. Esto significa que la versión de IA que efectivamente moldea las prácticas cognitivas de la mayoría regional es, simultáneamente, la más propensa a producir respuestas de calidad mediocre y la menos propensa a fomentar interacciones reflexivas. La accesibilidad no es neutra: configura un determinado tipo de relación con la máquina.
A esto se suma un dato que las estrategias nacionales de IA suelen silenciar. Argentina, que con un puntaje ILIA de 67.5 ocupa el cuarto lugar regional y cuenta con un Plan Nacional de Inteligencia Artificial, tuvo una caída del PIB de -1.3% en 2024 y exportaciones de alta tecnología que apenas alcanzan el 3.9% del total manufacturado. El Salvador, con un puntaje ILIA de 42.9 y una Agenda Digital que se extiende hasta 2030, tiene un PIB per cápita de apenas 5,579 dólares. La brecha entre el discurso oficial sobre adopción de IA y la materialidad económica que la sostiene es enorme, y se traduce directamente en infraestructura universitaria: aulas saturadas, docentes mal pagados, bibliotecas digitales precarias. En este contexto, la IA llega no como complemento a un sistema funcional, sino como sustituto improvisado de capacidades que el sistema nunca terminó de construir.
Qué es exactamente la deuda cognitiva
Conviene precisar el término antes de seguir, porque circula con demasiada vaguedad. La deuda cognitiva no es lo mismo que la pereza intelectual ni la copia. Es un fenómeno más sutil y, por eso mismo, más difícil de gobernar institucionalmente. Refiere al costo acumulado que se paga cuando una capacidad cognitiva específica —escribir argumentativamente, sintetizar fuentes contradictorias, sostener una hipótesis contra objeciones, modelar matemáticamente un problema— deja de ejercitarse porque otro sistema la realiza por nosotros con suficiente eficacia inmediata.
La investigación reciente sobre actividad cerebral en estudiantes que escriben con asistencia de IA ha mostrado patrones inquietantes: conectividad neuronal reducida en regiones asociadas con la integración semántica, menor retención del contenido producido, y una sensación subjetiva de menor autoría sobre el texto final Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task. El hallazgo no es que la IA “atrofie el cerebro” —esa caricatura ha sido justificadamente desmontada—, sino algo más fino: que el patrón de uso importa enormemente. Los estudiantes que primero pensaban y luego usaban la IA para revisión mostraron perfiles distintos a los que usaron la IA desde el inicio y solo intervinieron al final. La deuda se acumula en el segundo grupo. El primer grupo, en cambio, parece beneficiarse.
Cristóbal Cobo, hace ya varios años, anticipó la dinámica con una claridad que conviene recuperar: una educación “meramente instrumental” produce sujetos “incapaces de hacernos competentes en un contexto cada vez complejo, lo cual nos desprotege y nos hace vulnerables y fácilmente manipulables” Acepto las condiciones: usos y abusos de las tecnologías digitales. Cobo hablaba del uso de plataformas digitales en general, antes del salto de los modelos de lenguaje, pero el diagnóstico aplica con mayor fuerza ahora. La línea alternativa que él proponía —“superar la educación meramente instrumental y enfocarse en el desarrollo del pensamiento crítico y autónomo”— es exactamente lo que la universidad latinoamericana no ha logrado consolidar como práctica masiva, y es exactamente la apuesta que la deuda cognitiva pone en jaque.
El espejismo de la “integración curricular”
En los últimos dieciocho meses, la respuesta predominante de las universidades de la región ha oscilado entre dos polos. En uno, la prohibición —generalmente acompañada de software de detección que no funciona bien y que castiga desproporcionadamente a quienes escriben en un español más estándar, lo cual incluye, paradójicamente, a estudiantes que se esforzaron en pulir su prosa. En el otro polo, la “integración curricular”: talleres docentes, lineamientos de uso, declaraciones rectorales sobre la importancia de “preparar a los estudiantes para el futuro del trabajo”. Ninguna de las dos respuestas, observada en su práctica concreta, parece tocar el problema de fondo.
La prohibición fracasa porque la herramienta está fuera del campus: en el teléfono, en la habitación, en la madrugada antes de la entrega. Detectar el uso de IA en un ensayo bien editado es técnicamente imposible con fiabilidad suficiente para fundamentar una sanción, y la pretensión de hacerlo introduce una pedagogía de la sospecha que corroe la relación docente-estudiante. La integración acrítica fracasa por una razón distinta y más interesante: trata el problema como si fuera la introducción de una nueva tecnología en un proceso pedagógico estable, cuando lo que la IA generativa produce es una reconfiguración de qué actividades cognitivas son escasas y cuáles son abundantes. Eso requiere repensar evaluación, currículo y propósito —no añadir una unidad sobre “uso responsable de la IA” al final del programa.
Aquí es donde el marco institucional importa más que la conducta individual. Una universidad que evalúa principalmente mediante productos escritos entregados a distancia, en plazos largos, sin instancias de defensa oral ni proceso visible, está optimizada para la producción de deuda cognitiva. No porque sus estudiantes sean tramposos, sino porque su arquitectura de evaluación pide exactamente aquello que la IA hace bien y barato: un texto pulido, coherente, con bibliografía formal. Cambiar el currículo sin cambiar la evaluación es maquillaje. Cambiar la evaluación sin cambiar la formación docente es voluntarismo. Y formar docentes sin haber clarificado el propósito de fondo —para qué estamos formando egresados en 2026, no en 1996— es construir sobre arena.
La metacognición como competencia central
Si la apuesta institucional no puede ser ni la prohibición ni la integración acrítica, ¿cuál es? La hipótesis que conviene poner en circulación, y que algunas universidades —pocas— están comenzando a ensayar, es que la competencia central que la educación superior debe formar en la era de los modelos de lenguaje es la metacognición sobre el uso de IA. Saber cuándo conviene delegar y cuándo no. Saber qué partes de un proceso intelectual debo ejecutar yo, sí o sí, porque si las delego pierdo la capacidad. Saber leer críticamente lo que el modelo me devuelve, detectar sus errores característicos, sus sesgos, sus omisiones. Saber, en suma, pensar con la máquina y sobre la máquina al mismo tiempo.
Esta no es una idea original. El AI Competency Framework for Teachers de la UNESCO, publicado tras el Consenso de Beijing sobre IA y Educación, ya plantea la necesidad de que el profesorado desarrolle no solo competencias técnicas sino comprensión crítica sobre los límites epistemológicos de los sistemas que está incorporando al aula. Lo que es relativamente original es la urgencia con la que esto debe traducirse en diseño institucional concreto en una región donde el docente universitario promedio acumula entre dos y cuatro empleos para sostener un ingreso digno y rara vez tiene tiempo institucional pago para formación continua.
Pensar la metacognición como competencia central tiene una virtud adicional: rompe la falsa dicotomía entre “habilidades blandas” y “habilidades técnicas” que ha dominado el discurso sobre futuro del trabajo. La capacidad de discernir qué hacer y qué no hacer con la IA es simultáneamente la habilidad más técnica que existe —porque requiere comprender cómo funciona el sistema— y la más humanística —porque requiere haber cultivado un criterio de qué vale la pena pensar y por qué. Es, en términos freireanos, la diferencia entre una educación bancaria que deposita información (incluyendo la información sobre cómo usar IA) y una educación liberadora que forma sujetos capaces de leer su mundo, donde “leer el mundo” ahora incluye, necesariamente, leer las mediaciones algorítmicas que lo configuran Pedagogía del oprimido.
Quién paga la deuda y quién la cobra
El subtítulo de este ensayo planteaba una pregunta deliberadamente cruda: en la economía de la deuda cognitiva, ¿quién paga y quién cobra? La respuesta no es trivial y merece ser desarrollada porque, sin ella, el debate se queda en el plano de la angustia pedagógica abstracta.
Néstor García Canclini lo formuló con su lucidez característica: “los conocimientos necesarios para desempeñarnos como ciudadanos se estrechan debido a la sustracción y el ocultamiento de datos por parte de las corporaciones y los gobiernos” Ciudadanos reemplazados por algoritmos. El estrechamiento no es accidental ni neutral. Cuando un estudiante latinoamericano escribe sus ensayos universitarios usando un modelo entrenado predominantemente en corpus en inglés, con valores editoriales calibrados por equipos de Silicon Valley, y orientado por intereses comerciales de OpenAI, Anthropic o Google, hay una transferencia de valor que se vuelve invisible justamente porque parece gratis. El estudiante cree estar usando una herramienta; en realidad está siendo entrenado, también él, en una determinada manera de formular preguntas, organizar argumentos y reconocer respuestas válidas.
García Canclini se preguntaba también si la región tendría que “luchar contra la irrelevancia en lugar de hacerlo contra la explotación” Ciudadanos reemplazados por algoritmos. La pregunta envejece bien, demasiado bien. Si la universidad latinoamericana forma egresados que solo saben operar el sistema sin entenderlo —técnicos de prompt en lugar de pensadores con criterio sobre cuándo prompt y cuándo no—, esos egresados llegarán al mercado laboral global ofreciendo exactamente la capa de servicios que la IA generativa está volviendo más barata por minuto. La deuda cognitiva, en este nivel, no es solo un problema cerebral del individuo: es un problema de posicionamiento de la región en la cadena de valor planetaria de la inteligencia.
Shoshana Zuboff describió hace casi una década el patrón general: las plataformas extraen comportamiento, lo procesan como excedente, lo venden como predicción The Age of Surveillance Capitalism. En el caso educativo, el excedente conductual incluye la totalidad de las interacciones de un estudiante con el modelo a lo largo de su carrera: sus dudas, sus errores característicos, sus formas de redactar, sus referencias culturales. Las universidades latinoamericanas que firmen convenios con grandes proveedores sin negociar términos específicos sobre soberanía de esos datos están entregando, sin contraprestación clara, un activo cuyo valor agregado regresará a la región, si regresa, ya transformado en producto comercial. Esa es la deuda cognitiva en su versión institucional, más allá del cerebro individual.
Dos lentes LATAM en operación
Conviene detenerse aquí y aplicar de manera explícita dos de las cinco lentes que orientan esta sección regional, porque el análisis anterior se vuelve más nítido cuando se las nombra.
La lente de accesibilidad ya apareció en el segundo apartado, pero merece una formulación más precisa. La accesibilidad de la IA generativa en la región es, simultáneamente, su mayor virtud y su trampa más eficaz. Es virtud porque permite a estudiantes que jamás pagarían un tutor privado tener acceso a explicaciones personalizadas a cualquier hora. Es trampa porque la versión gratuita —la única realmente accesible para la mayoría— está optimizada para enganchar al usuario en una relación de delegación, no de cocreación reflexiva. Las funciones que más se asemejan a un tutor socrático genuino (modos de razonamiento extendido, memoria a largo plazo, capacidad de seguir un plan de estudios coherente durante meses) están detrás de muros de pago. La consecuencia institucional es ineludible: una universidad que no provee acceso institucional a versiones avanzadas y que tampoco forma metacognitivamente a sus estudiantes está delegando la formación de los hábitos cognitivos de sus egresados a las decisiones de producto de empresas estadounidenses cuyo objetivo no es la formación intelectual de jóvenes latinoamericanos.
La lente de anticipación desplaza el foco del presente al horizonte de cinco a diez años. Si la tendencia actual continúa —adopción masiva de la IA gratuita, ausencia de formación metacognitiva sistemática, evaluación centrada en productos terminados y no en procesos visibles—, la región egresará dos tipos muy distintos de profesionales. Por un lado, una minoría que habrá aprendido, generalmente por iniciativa familiar o institucional excepcional, a usar la IA como amplificador de capacidades propias bien cultivadas; esta minoría será cada vez más productiva y crecerá en el mercado laboral global. Por otro lado, una mayoría que habrá usado la IA como sustituto de capacidades nunca cultivadas y que descubrirá, al egresar, que el mercado paga muy poco por la operación de herramientas que cualquiera puede operar. La desigualdad cognitiva, en este escenario, no replica la desigualdad económica preexistente: la amplifica con un nuevo eje que cruza con clase, género y geografía. La universidad pública latinoamericana, históricamente uno de los pocos mecanismos sólidos de movilidad social en la región, podría convertirse, sin proponérselo, en el lugar donde esa amplificación se consolida.
Anticipar este escenario no es predecirlo. Es advertir que las decisiones institucionales que se toman en este momento —qué se compra, qué se prohíbe, cómo se forma a los docentes, qué se evalúa— están configurando cuál de los dos futuros se vuelve más probable.
Contraargumentos que merecen consideración
Sería intelectualmente deshonesto avanzar hacia el cierre sin atender objeciones serias al argumento. Hay al menos tres que merecen ser tomadas en serio.
La primera proviene de quienes señalan, con razón, que la preocupación por la deuda cognitiva tiene un fuerte aroma a pánico moral generacional. Cada nueva tecnología cognitiva —la escritura, la imprenta, la calculadora, internet, Wikipedia— fue recibida con profecías sobre el fin del pensamiento profundo, y cada vez la profecía resultó exagerada. Sócrates desconfiaba de la escritura porque debilitaría la memoria; tenía razón parcial, pero a cambio ganamos algo enorme. ¿No estaremos ahora repitiendo el gesto, dramatizando un cambio cuyos costos serán menores que sus beneficios?
La objeción es legítima y obliga a matizar. Sí, parte del discurso actual sobre IA en educación es pánico moral. Pero hay una diferencia estructural relevante: las tecnologías cognitivas previas eran herramientas pasivas que ampliaban capacidades específicas (memoria externa, cálculo). Los modelos de lenguaje son sistemas activos que ejecutan procesos cognitivos completos —argumentar, sintetizar, evaluar— con apariencia de competencia general. La diferencia entre delegar la memoria a un cuaderno y delegar la argumentación a un sistema entrenado por terceros con intereses propios no es de grado, es de tipo. La preocupación, si se formula con cuidado, no es generacional sino estructural.
La segunda objeción es más empírica: la evidencia sobre deuda cognitiva todavía es preliminar, basada en estudios con muestras pequeñas y diseños cuestionables. Construir política institucional sobre esa base es prematuro. Cierto. Pero la política institucional ya se está construyendo, en todas partes, sobre la base de la evidencia disponible más alguna combinación de intuición, miedo e intereses comerciales. La pregunta no es si actuar con evidencia incompleta, sino con qué encuadre actuar mientras la evidencia se completa. Un encuadre que privilegia la metacognición y el proceso parece más robusto frente a futuros hallazgos que uno que apuesta todo a la integración acrítica o a la prohibición.
La tercera objeción viene de quienes recuerdan que la universidad latinoamericana arrastra problemas tan serios —subfinanciamiento, masificación sin recursos, deserción altísima, calidad desigual— que centrar el debate en la IA es casi un lujo. Primero resuelvan lo básico, dicen, y después preocúpense por la deuda cognitiva. La respuesta tiene que ser que no son problemas alternativos sino superpuestos. Los problemas estructurales preexistentes son exactamente lo que vuelve a la región más vulnerable al peor escenario de la IA, no menos. Postergar el debate sobre IA hasta resolver lo demás es asegurar que, cuando finalmente se aborde, ya sea demasiado tarde para incidir en las prácticas formadas.
Saltar etapas: una hipótesis arriesgada
Hay un argumento optimista que la región debería considerar antes de cerrar. América Latina ha tenido históricamente la posibilidad —rara vez aprovechada— de saltar etapas tecnológicas: pasar directamente del cable de cobre al móvil, de la banca de sucursal a la banca digital. ¿Podría la universidad latinoamericana saltar la etapa de los modelos de evaluación industriales —exámenes estandarizados, ensayos masificados— directamente a modelos que premien el proceso visible, la defensa oral, el portafolio razonado?
La hipótesis es atractiva pero requiere honestidad sobre sus condiciones. Saltar a evaluación procesual exige docentes con tiempo institucional para hacer seguimiento, ratios estudiante-profesor manejables, infraestructura de tutoría, y una concepción del trabajo docente que valore la mediación pedagógica por encima de la productividad cuantitativa. Nada de eso está garantizado en la región; la mayor parte está, de hecho, en franca regresión bajo presión presupuestaria. El salto es técnicamente posible y pedagógicamente deseable, pero solo si la decisión política lo acompaña con recursos. Sin recursos, el discurso del “salto” se vuelve una forma elegante de pedirle a docentes ya sobrecargados que hagan magia.
Aun así, hay experiencias incipientes que vale la pena seguir. Algunos programas de posgrado en universidades públicas de México, Argentina, Chile y Colombia están experimentando con evaluación basada en bitácoras visibles de proceso, donde el uso de IA no se prohíbe pero sí se documenta y discute, y donde la defensa oral del trabajo se convierte en el momento evaluativo central. Son experiencias pequeñas, no sistematizadas, frágiles institucionalmente. Pero son las que más se acercan a un modelo que reconoce la deuda cognitiva como problema real y la enfrenta con diseño pedagógico, no con prohibición ni con evangelismo tecnológico.
Implicaciones para el diseño institucional
¿Qué debería hacer concretamente una universidad latinoamericana que se tome en serio este diagnóstico? Conviene cerrar con propuestas suficientemente específicas para ser discutidas, no con generalidades.
Primero, asumir que la formación metacognitiva sobre IA no es un taller optativo de una semana sino un eje transversal del currículo, presente en al menos una materia por semestre, articulado por disciplina y no genérico. La pregunta “qué partes de mi proceso intelectual no puedo delegar sin perder la capacidad” se formula de manera distinta en medicina, ingeniería, derecho y filosofía. Tratar la alfabetización en IA como capacitación instrumental genérica es repetir el error que Cobo diagnosticó hace años: educación meramente instrumental que desprotege Acepto las condiciones: usos y abusos de las tecnologías digitales.
Segundo, rediseñar la evaluación para volver visible el proceso, no para detectar la trampa. La diferencia es importante. Detectar trampa es una arquitectura de sospecha; visibilizar proceso es una arquitectura de aprendizaje. En la práctica significa: defensas orales breves después de entregas escritas, bitácoras de proceso, evaluaciones formativas intermedias, trabajos colaborativos con responsabilidades trazables. Cuesta tiempo docente. Sin tiempo docente pago, no hay reforma posible.
Tercero, negociar con proveedores de IA términos institucionales que protejan datos estudiantiles y, donde sea posible, optar por modelos abiertos o desarrollos regionales aunque sean menos performantes. La performance se compensa con curaduría docente; la pérdida de soberanía de datos no se compensa con nada.
Cuarto, formar profesorado con liberación horaria pagada para que el aprendizaje sobre IA no sea una tarea adicional sobre el ya saturado horario docente. Sin esto, todo lo anterior es retórica.
Quinto, abrir el debate público regional. Las universidades latinoamericanas tienden a tomar decisiones sobre tecnología educativa de manera individual y reservada. La deuda cognitiva es un problema que cruza fronteras y se beneficiaría de marcos compartidos, comparación de experiencias, e incluso de posiciones regionales coordinadas frente a proveedores globales.
Preguntas que quedan abiertas
Cierro sin pretender haber resuelto el problema, porque no está resuelto en ninguna parte y declarar lo contrario sería irrespetuoso con la complejidad del momento.
Quedan abiertas al menos cinco preguntas que la conversación regional necesita formular con más insistencia. ¿Cómo medir la deuda cognitiva sin caer en métricas reduccionistas que terminen, paradójicamente, premiando lo que dicen combatir? ¿Cómo distinguir, en la práctica evaluativa cotidiana, entre uso de IA que potencia el aprendizaje y uso que lo sustituye? ¿Cómo articular la formación universitaria con la formación secundaria, dado que los estudiantes llegan al primer año con hábitos de uso de IA ya cristalizados? ¿Cómo evitar que las universidades de élite, que pueden comprar acceso institucional a las versiones avanzadas y rediseñar evaluación con recursos, profundicen su ventaja sobre las universidades públicas masificadas? ¿Y cómo construir una conversación regional que no sea solo recepción tardía de debates anglosajones, sino producción propia de marcos que respondan a problemas que aquí tienen forma específica?
La paradoja con la que abrimos este ensayo —una estudiante que aprueba sin saber qué aprendió— admite dos lecturas. La pesimista: la universidad latinoamericana se está convirtiendo en una máquina de certificación que pierde, día a día, su capacidad de formación. La constructiva: el momento de la IA generativa es también una oportunidad inédita para preguntarnos, con honestidad raramente posible, qué exactamente queríamos formar antes de que la IA llegara, y por qué no lo estábamos formando bien. Esa pregunta no la responde la máquina. Esa pregunta la respondemos, si la respondemos, nosotros.