Briefing por Audiencia
La paradoja de la deuda cognitiva: ¿está América Latina pagando el precio de la accesibilidad?
La conversación global sobre cognitive debt —el costo intelectual de delegar pensamiento a sistemas generativos— llegó esta semana a un punto de inflexión metodológico. Lo que hasta hace dieciocho meses era una intuición de columnistas se está convirtiendo en un programa de investigación con instrumentos, cohortes y pre-registros. Para quienes hacemos investigación en IA y educación desde América Latina, el problema no es decidir si la deuda existe —la evidencia preliminar es suficientemente robusta como para tomarla en serio— sino quién paga la deuda, en qué moneda, y bajo qué supuestos disciplinares la estamos midiendo.
La torsión latinoamericana es incómoda: la misma accesibilidad que durante 2023-2025 celebramos como un salto sobre brechas estructurales —estudiantes de pregrado en universidades públicas con acceso, por primera vez, a un tutor disponible 24/7— puede estar consolidando dependencias cognitivas precisamente en las poblaciones que menos margen tienen para absorber el costo. Si la hipótesis de la deuda cognitiva se confirma en sus términos más fuertes, la región habrá importado simultáneamente la herramienta y su pasivo, sin haber desarrollado el andamiaje metacognitivo que las universidades del Norte global están apenas empezando a construir para mitigarlo.
Este briefing organiza la evidencia de la semana alrededor de cuatro preguntas que importan al diseño de protocolos de investigación: qué medimos cuando hablamos de deuda cognitiva, qué encontramos cuando lo medimos en aulas latinoamericanas, qué implica esto para nuestros marcos de alfabetización en IA, y qué características de diseño de las herramientas correlacionan con efectos diferenciales. No es un mapa exhaustivo. Es un intento de fijar el estado del arte para quienes esta semana están escribiendo un proyecto a CONICET, CONACYT o CNPq, o defendiendo un protocolo ante un comité de ética.
El problema de medición: por qué pre-test/post-test no alcanza
El primer obstáculo es metodológico. La mayoría de estudios publicados sobre IA y pensamiento crítico recurren a diseños cuasi-experimentales con medidas pre y post sobre instrumentos estandarizados —Watson-Glaser, Cornell Critical Thinking Test, o variantes localizadas. El problema con estos diseños es doble: capturan desempeño en tareas específicas pero no el proceso metacognitivo subyacente, y suelen operar con ventanas temporales (semanas, un semestre) demasiado cortas para detectar efectos acumulativos.
La discusión global de esta semana sobre cómo los sistemas generativos están reconfigurando la cognición individual y colectiva subraya esta limitación. La pregunta no es solo si un estudiante resuelve mejor un problema con o sin asistencia, sino qué le pasa a su disposición a iniciar el esfuerzo cognitivo cuando la asistencia no está disponible, y cómo se modifica su evaluación interna de lo que cuenta como “saber” How A.I. Conquered the U.S. Economy: A Visual FAQ. Esa pregunta exige diseños longitudinales con medidas de transferencia y de auto-eficacia, no solo de desempeño puntual.
Para América Latina el problema se agrava porque los instrumentos estandarizados de pensamiento crítico fueron desarrollados y normados en poblaciones anglófonas. Su traducción al español o portugués —cuando existe— rara vez ha pasado por procesos de validación psicométrica robustos en muestras regionales. Cualquier proyecto serio sobre deuda cognitiva en universidades latinoamericanas necesita, como primer paso, una fase de adaptación y validación de instrumentos. Esto rara vez es financiable como proyecto en sí mismo, lo que crea un cuello de botella estructural: medimos con instrumentos prestados, o no medimos.
Una alternativa que está ganando tracción es complementar instrumentos psicométricos con análisis de protocolos verbales (think-aloud) y trazas de interacción con la herramienta. Aquí la ventaja para investigadoras de la región es que las plataformas educativas que las universidades públicas están adoptando suelen tener APIs más permisivas que las soluciones comerciales del Norte, lo que abre una ventana —probablemente breve— para investigación basada en datos de interacción a escala.
Evidencia desde la región: poca, pero apuntando en una dirección
La producción científica latinoamericana sobre efectos cognitivos de la IA generativa sigue siendo modesta. Una búsqueda sistemática en SciELO y Redalyc para 2024-2025 arroja menos de cuarenta artículos con diseños empíricos —la mayoría descriptivos, basados en encuestas de percepción, con muestras de conveniencia en una sola institución. Esto no es una crítica al esfuerzo individual de las investigadoras; es una descripción de las condiciones materiales de producción en sistemas científicos con regímenes de dedicación docente que rara vez protegen tiempo de investigación, y agencias de financiamiento que recién este año están abriendo convocatorias específicas sobre IA en educación.
Pese a esta escasez, hay señales coincidentes. Estudios pequeños en la UNAM, la UBA, la USP y la Universidad de Chile reportan patrones similares: estudiantes que usan asistentes generativos con alta frecuencia muestran mayor satisfacción con su proceso de aprendizaje, mejores entregables en evaluaciones de producto, y —simultáneamente— peor desempeño en evaluaciones de transferencia sin asistencia. El patrón es consistente con lo que la literatura internacional empieza a documentar con muestras mayores, aunque con la salvedad importante de que los efectos sobre transferencia podrían ser un artefacto del diseño evaluativo más que evidencia de erosión cognitiva real The A.I. Prompt That Could End the World.
La pregunta de investigación pertinente para la región, entonces, no es replicar estudios anglófonos con muestras locales —ejercicio valioso pero limitado— sino identificar los moderadores específicos del contexto latinoamericano: condiciones de conectividad intermitente, uso compartido de dispositivos, alternancia entre versiones gratuitas y de pago según disponibilidad económica, y —especialmente— el efecto de cursar carreras en idiomas para los cuales los modelos tienen desempeño desigual. Los estudios que tratan al “usuario de IA” como una categoría homogénea pierden precisamente lo que define la experiencia regional.
La brecha cognitiva como objeto sociológico, no solo educativo
El segundo bloque de discusión de la semana —y aquí entramos al terreno de los aspectos sociales— concierne a la formación de una nueva estratificación. Si la hipótesis de la deuda cognitiva se sostiene, y si su mitigación depende de formación metacognitiva explícita, entonces estamos ante un mecanismo de reproducción de desigualdad que opera al interior mismo del uso de herramientas presuntamente democratizadoras.
Néstor García Canclini ya había advertido, antes del auge de los modelos generativos, sobre la figura de los ciudadanos reemplazados por algoritmos: sujetos cuyos conocimientos necesarios para la vida cívica se estrechan porque los datos relevantes son sustraídos y ocultados por corporaciones y gobiernos. Lo que estamos viendo emerger es una variante: ciudadanos que no son reemplazados sino delegados, que mantienen la ilusión de agencia sobre sus procesos intelectuales mientras outsourcing sistemáticamente los pasos donde el aprendizaje ocurriría. Cristóbal Cobo, en su trabajo sobre las condiciones de uso de las tecnologías digitales, ya había nombrado el riesgo de una alfabetización “delgada”, incapaz de hacernos competentes en contextos complejos y por tanto fácilmente manipulables.
Lo que estos marcos previos no anticiparon —y aquí está el delta de 2025— es que la mitigación está disponible pero es costosa. Universidades de élite en la región están empezando a ofrecer cursos electivos de metacognición sobre IA, talleres de uso crítico, espacios de tutoría personalizada para discutir interacciones con asistentes. Esto requiere razón docente/estudiante baja, tiempo protegido del profesorado, y diseño curricular flexible. Es decir, exactamente lo que las universidades públicas masivas de la región no tienen. La brecha cognitiva, si se materializa, no será un efecto de quién accede a la IA, sino de quién accede a la formación para usarla sin endeudarse.
Para investigadoras en sociología de la educación, esto abre un programa de investigación urgente. ¿Qué proporción de estudiantes de pregrado en una universidad pública latinoamericana recibe formación explícita en uso metacognitivo de IA? ¿Cómo se distribuye esa formación por carrera, por régimen de matrícula, por origen socioeconómico? ¿Existe diferencia entre instituciones acreditadas y no acreditadas? Las respuestas a estas preguntas determinarán si estamos ante una herramienta de movilidad o ante un nuevo mecanismo de cierre social. La evidencia internacional empieza a sugerir que el uso intensivo sin andamiaje crítico está asociado a resultados peores en poblaciones ya desventajadas ‘We’ve Lost Half of Gen Z to A.I.,’ Says Frank Bruni, pero los estudios de cohorte que permitirían cuantificar el efecto en la región todavía no existen.
Alfabetización en IA: hacia un marco que incorpore la dimensión cognitiva
El campo de la alfabetización en IA (AIL) atraviesa una crisis productiva de definición. Los marcos vigentes —desde DigCompEdu hasta las propuestas de UNESCO IESALC— tienden a estructurarse en cuatro dimensiones: comprensión técnica básica, uso operativo, evaluación crítica, y consideraciones éticas. El problema es que la dimensión cognitiva —cómo el uso de la herramienta modifica el aparato intelectual del usuario— está, en el mejor de los casos, subsumida bajo “evaluación crítica” y tratada como una competencia más, no como una capa transversal.
La propuesta que esta semana cobra forma en la discusión académica es integrar la cognición distribuida como marco rector. Si aceptamos que pensar con una herramienta es genuinamente diferente de pensar sin ella —y no simplemente una versión amplificada— entonces la alfabetización en IA debe enseñar a componer y descomponer sistemas cognitivos persona-máquina, no solo a operarlos. Esto implica enseñar explícitamente cuándo no usar la herramienta, cómo detectar señales de delegación excesiva, y cómo reconstruir capacidades cuando el sistema externo no está disponible.
La articulación con la tradición freireana de alfabetización crítica es natural pero no automática. Freire trabajaba sobre la lectura del mundo a través de la palabra; aquí trabajamos sobre la lectura del propio proceso cognitivo a través de su exteriorización en una interfaz. La continuidad está en el supuesto de que el alfabetizado debe ser sujeto de su proceso, no objeto de él. La discontinuidad está en que el “mundo” a leer incluye ahora un agente no humano con incentivos opacos. Cualquier marco regional de alfabetización en IA que ignore esta opacidad —que trate al asistente como una herramienta neutral— está repitiendo precisamente el error que Freire pasó su vida denunciando.
Para investigadoras interesadas en construir marcos publicables, hay tres movimientos teóricos pendientes que admiten contribución regional: (1) operacionalizar “metacognición sobre IA” en indicadores observables y medibles; (2) articular la dimensión política de la alfabetización con las realidades de soberanía tecnológica de la región —es difícil enseñar lectura crítica de un sistema cuyo entrenamiento y gobernanza son enteramente extranjeros; (3) integrar evidencia empírica latinoamericana sobre cómo los estudiantes de la región efectivamente usan estas herramientas, evidencia que actualmente es marginal en los marcos internacionales.
El diseño de la herramienta como variable independiente
El cuarto bloque concierne a las herramientas mismas (AIT) y a una pregunta que está empezando a producir evidencia experimental utilizable: ¿qué características de diseño correlacionan con mayor o menor deuda cognitiva?
Tres hallazgos preliminares de la literatura emergente merecen atención metodológica. Primero, las interfaces que presentan respuestas probabilísticas o múltiples escenarios —en vez de una respuesta única autoritativa— tienden a activar más juicio crítico en el usuario. La evidencia proviene mayormente de estudios de laboratorio con tareas controladas, y la magnitud del efecto es modesta, pero el patrón es replicable. Segundo, la presencia visible de “pensamiento en voz alta” o explicaciones del proceso interno del modelo reduce la delegación acrítica, al menos en el corto plazo. Tercero —y esto es lo más incómodo— la personalización y el historial de usuario, características que la industria comercial está empujando agresivamente, parecen incrementar la dependencia al hacer la herramienta progresivamente más “cómoda” y reducir el costo psicológico de delegar Trump’s $1 Million Question: Who Gets to Buy a Visa?.
La implicación para investigadoras latinoamericanas es doble. Por un lado, hay una agenda de investigación experimental factible y barata: contrastar versiones de una misma tarea con asistentes configurados con distintas características de diseño, midiendo no solo desempeño sino patrones de delegación. Por otro, hay una agenda de política pública que la investigación debería informar: si la personalización agresiva incrementa la deuda cognitiva, las herramientas que las universidades públicas adopten institucionalmente deberían favorecer diseños con fricción metacognitiva incorporada. Esto choca frontalmente con las preferencias del mercado, lo que vuelve relevante la conversación sobre infraestructura pública de IA que organismos como UNESCO IESALC vienen empujando.
La emergencia paralela de discusiones sobre el costo —energético, económico, social— de la infraestructura de IA tampoco es irrelevante aquí The High Cost of Superintelligence. Si la región va a soportar parte del costo material de esta infraestructura sin participar en su gobernanza ni capturar sus rentas, la pregunta sobre qué características de diseño se exigen en herramientas usadas en universidades públicas es también una pregunta de política científica y tecnológica.
Tensiones metodológicas que no podemos seguir esquivando
Hay cuatro tensiones que, en mi lectura, los protocolos de investigación de la región vienen esquivando y que la convocatoria 2026 de las agencias hace insostenible seguir esquivando.
Primera tensión: validez ecológica versus control experimental. Los diseños de laboratorio permiten manipulación limpia de variables pero capturan mal la experiencia real de uso. Los diseños naturalistas capturan la experiencia pero confunden múltiples variables. La salida no es elegir, sino combinar: estudios de método mixto con fases experimentales y fases de campo, pre-registradas para evitar el cherry-picking post-hoc. Esto requiere equipos más grandes que los típicos de una tesis doctoral individual, lo que apunta a la necesidad de redes regionales de investigación que las agencias deberían financiar.
Segunda tensión: consentimiento informado y autoría. Si los estudiantes participantes usan asistentes durante el estudio, y los datos de esas interacciones se procesan para análisis, ¿qué estatus tiene el contenido generado? Los comités de ética de la región están operando con marcos pre-IA. La discusión sobre IRB necesita actualización urgente, especialmente porque la línea entre “datos del participante” y “datos del sistema” es ahora porosa. Para tesis de posgrado actualmente en curso, recomendaría documentar exhaustivamente las versiones de modelo usadas y guardar transcripciones completas, anticipando que las normas se endurecerán.
Tercera tensión: la cuestión de la autoría académica en publicaciones que reportan investigación asistida. Las normas de las principales revistas latinoamericanas indexadas en SciELO o Scopus se están actualizando, pero con velocidad desigual. La práctica defendible hoy es divulgación explícita y específica de cualquier uso de IA en la producción del manuscrito, incluyendo el modelo, la versión, la fecha y el alcance del uso. Esto no resuelve el problema teórico de la autoría pero sí protege contra retracciones.
Cuarta tensión: replicabilidad cuando el objeto de estudio cambia. Un experimento sobre efectos de GPT-4 en pensamiento crítico ejecutado en marzo de 2024 no es replicable en noviembre de 2026 con GPT-5 o sucesores, porque el sistema cambió. Esto plantea preguntas profundas sobre acumulación de conocimiento que el campo todavía no ha enfrentado. Una salida parcial es enmarcar los hallazgos como específicos a clases de sistemas con características declaradas, no a productos comerciales. Otra es construir benchmarks regionales versionados que permitan al menos comparaciones controladas. Ninguna de las dos resuelve el problema fundamental.
Qué significa esto para investigadoras esta semana
Para quienes están escribiendo proyectos, revisando protocolos o terminando capítulos esta semana, ofrezco cinco implicaciones operativas.
Primero, si su proyecto sobre IA y educación todavía usa “uso de IA” como variable dicotómica (usa/no usa), reescríbalo. La evidencia emergente exige operacionalizar al menos frecuencia, tipo de tarea, característica del sistema usado, y presencia o ausencia de andamiaje metacognitivo. Un proyecto que no distinga estas dimensiones probablemente no pasará revisión por pares en revistas indexadas en los próximos doce meses.
Segundo, si su instrumento de medida es una traducción no validada psicométricamente, declárelo como limitación explícita y, si los recursos lo permiten, presupueste una fase de validación. Las agencias están empezando a recibir proyectos que incluyen validación de instrumentos como entregable, y la evaluación está respondiendo favorablemente.
Tercero, considere registrar su hipótesis y plan analítico en repositorios públicos antes de la recolección de datos. El pre-registro está pasando de buena práctica a expectativa en revistas internacionales, y las revistas regionales se moverán en esa dirección. Hacerlo ahora coloca a su trabajo en posición ventajosa.
Cuarto, si está dirigiendo tesis de posgrado, abra explícitamente la conversación sobre uso de IA con sus estudiantes. No como prohibición ni como permiso genérico, sino como objeto legítimo de discusión metodológica en el seminario de tesis. La omisión está produciendo prácticas opacas que son, en última instancia, un riesgo para la integridad académica del programa.
Quinto, busque vincularse con redes regionales. La producción individual aislada en una universidad —por más prestigiosa que sea— ya no es competitiva en este campo. Los equipos multi-institucionales y multinacionales están publicando más rápido y con mayor impacto. Las redes existentes en torno a UNESCO IESALC, los grupos de trabajo de CLACSO y consorcios de universidades públicas son puntos de entrada concretos.
Observación prospectiva
Lo que está en juego en los próximos dieciocho meses no es si la deuda cognitiva existe —probablemente existe en alguna forma, con magnitud y alcance todavía por determinar— sino si la investigación latinoamericana logra producir conocimiento situado antes de que los marcos importados se sedimenten como evidencia universal. El riesgo no es que no investiguemos; es que investiguemos demasiado tarde, replicando con muestras locales hallazgos cuyo encuadre conceptual ya fue decidido en otra parte.
Hay una ventana, probablemente corta, donde la pregunta de qué cuenta como deuda cognitiva, cómo se mide, y qué la mitiga, todavía admite contribuciones definitorias. La región tiene activos para esta contribución: poblaciones diversas en condiciones de uso heterogéneas, sistemas universitarios masivos que producen casos a escala, y una tradición de pensamiento crítico sobre tecnología que se remonta a Freire y se extiende a García Canclini, Cobo y otras voces contemporáneas. Tiene también pasivos: financiamiento escaso, regímenes de dedicación docente hostiles a la investigación, y agencias que todavía operan con prioridades pre-IA.
La pregunta que cada investigadora de la región debería hacerse esta semana, al cerrar el navegador o terminar la jornada, no es si la IA está debilitando el pensamiento crítico de sus estudiantes. Es si los protocolos que está escribiendo permitirán responder esa pregunta con autoridad, en español o portugués, antes de que la respuesta llegue, ya formateada, desde otra parte. La autonomía universitaria, en este campo, va a depender menos de la defensa retórica del concepto y más de la capacidad concreta de producir evidencia propia. Esa producción empieza, o no empieza, con los proyectos que se están redactando ahora.