Delegar el juicio: la deuda cognitiva como nuevo riesgo social en América Latina
Hay una imagen que circula desde hace un año en seminarios de neurociencia cognitiva y que conviene mirar de frente antes de extraer conclusiones apresuradas: los participantes que escribieron ensayos con asistencia de un modelo de lenguaje grande mostraron una conectividad neuronal sistemáticamente más débil que quienes escribieron sin asistencia, y cuando se les pidió reproducir sus propios textos sin ayuda, la mayoría no recordaba lo que había firmado pocos minutos antes Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task. El estudio del MIT Media Lab acuñó la expresión que ya entró al léxico del debate global: deuda cognitiva. La metáfora financiera es deliberada y, como todas las metáforas financieras, esconde una pregunta política: si hay deuda, ¿quién la contrae, quién la paga y quién la cobra?
En América Latina la pregunta llega con una torsión que el debate anglosajón no termina de ver. Allá la discusión orbita alrededor de profesionales del conocimiento que eligen delegar tareas que podrían hacer ellos mismos; aquí, en cambio, la delegación ocurre en un terreno donde el “ellos mismos” nunca tuvo las condiciones materiales para construirse. La deuda cognitiva no aterriza sobre una ciudadanía con musculatura intelectual previa que se atrofia: aterriza sobre sistemas educativos que arrastran décadas de subinversión, sobre instituciones públicas debilitadas, sobre ecosistemas informativos ya capturados por la lógica de plataformas. Lo que en San Francisco es un dilema de productividad cognitiva, en Tegucigalpa o en El Alto puede ser un acelerador de asimetrías que ya estaban allí.
Este ensayo argumenta que la deuda cognitiva, leída desde la región, deja de ser un problema individual de los usuarios y se vuelve un riesgo sistémico de salud pública cognitiva. No porque la IA “haga estúpida a la gente” —ese marco es a la vez moralista y empíricamente flojo— sino porque la delegación masiva del juicio a sistemas opacos, en contextos de baja confianza institucional y alta desigualdad de acceso, reconfigura quién tiene derecho a pensar, sobre qué, y con qué herramientas. La pregunta no es si delegamos: siempre delegamos. La pregunta es a quién, bajo qué reglas, y qué recuperamos cuando se rompe el contrato.
La metáfora de la deuda y lo que esconde
Conviene desconfiar de la palabra. “Deuda cognitiva” suena a hallazgo neurológico irrefutable, pero es una construcción que toma prestada su autoridad de la economía. La metáfora supone que existe un capital cognitivo previo, que ese capital se erosiona al externalizarlo, y que la erosión puede medirse con biomarcadores. Los datos del estudio del MIT son sugerentes pero acotados: 54 participantes, sesiones cortas, tarea estandarizada de ensayo Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task. Generalizar de allí a “la IA atrofia el pensamiento crítico” es un salto que el propio paper no autoriza.
Sin embargo, el marco se popularizó con velocidad reveladora. The Guardian, Le Monde, El País y una docena de medios regionales reprodujeron el hallazgo casi sin matices, en parte porque encajaba con una ansiedad cultural más antigua: la sospecha de que cada nueva tecnología nos vuelve más tontos. Sócrates desconfió de la escritura por las mismas razones; los humanistas del siglo XV sospecharon de la imprenta; en los noventa se decía que internet destruiría la capacidad de lectura sostenida. La forma del pánico se repite con una regularidad que debería darnos pausa.
Pero esa simetría histórica tampoco autoriza la indiferencia. Como advirtió García Canclini hace casi una década, los conocimientos necesarios para desempeñarnos como ciudadanos “se estrechan debido a la sustracción y el ocultamiento de datos por parte de las corporaciones y los gobiernos” Ciudadanos reemplazados por algoritmos. Lo que cambió con los modelos generativos no es la sospecha sobre la herramienta, sino la profundidad de la delegación: ya no externalizamos memoria (escritura), ni búsqueda (Google), sino la producción misma de juicio articulado. Y aquí la metáfora financiera, aun siendo imperfecta, captura algo real: hay una transferencia, hay un acreedor, hay un costo diferido.
Trabajo: la deuda como condición laboral, no como elección
El marco dominante presenta la deuda cognitiva como resultado de una decisión individual: el trabajador que prefiere el atajo, el redactor que automatiza. Esa lectura ignora la estructura. En la mayoría de los empleos del conocimiento en América Latina, la incorporación de IA no es una opción del trabajador sino una condición impuesta por el empleador, frecuentemente sin formación previa, sin protocolos claros y sin reconocimiento contractual del cambio en la naturaleza de la tarea.
Un estudio reciente sobre adopción de IA generativa en empresas de la región encontró que el 67% de los trabajadores que usan herramientas como ChatGPT en su trabajo lo hacen sin políticas formales de su empleador y sin entrenamiento The State of AI in Latin America 2024. La delegación, en ese contexto, no es producto de la pereza cognitiva sino de la presión de productividad: si el sistema espera que produzcas el doble en la mitad del tiempo, la IA deja de ser herramienta y se vuelve infraestructura tácita del puesto. El trabajador que se resiste no está defendiendo su pensamiento crítico; está perdiendo competitividad.
Crawford lo formuló con precisión: la IA no es una tecnología abstracta sino una cadena de trabajo, “trabajo no visto que toma muchas formas — trabajo de cadena de suministro, crowdwork bajo demanda, y empleos tradicionales del sector servicios” The Atlas of AI - Power, Politics, and the Planetary Costs. En la región, esa cadena se cierra de manera particular: trabajadores latinoamericanos etiquetan datos en Venezuela y Colombia para entrenar los modelos que después comprarán suscripciones para usar como asistentes en sus propios trabajos, frecuentemente en versiones gratuitas degradadas. La asimetría no es solo de uso: es de posición en la cadena de valor.
Esto reconfigura el debate de la deuda cognitiva. No es que el trabajador latinoamericano “elija” delegar y por tanto pierda capacidades; es que la delegación se le impone como condición, mientras paralelamente se le niega el acceso a las versiones de la herramienta que permitirían un uso más reflexivo y a la formación que permitiría usarla críticamente. La deuda, en este encuadre, se contrae sin firma.
El árbitro sin rendición de cuentas
Una segunda dimensión, quizás más grave, opera en el plano de la confianza social. En sociedades donde la confianza en las instituciones públicas se ha erosionado durante décadas —Latinobarómetro registra que apenas el 17% de los latinoamericanos confía en los partidos políticos y el 28% en el congreso Informe Latinobarómetro 2023— los sistemas de IA conversacional están ocupando, casi por defecto, el lugar de un nuevo árbitro de la verdad. Cuando preguntar a un funcionario público es ineficaz, cuando los medios tradicionales se perciben como capturados, cuando los buscadores devuelven publicidad disfrazada, ChatGPT aparece como la voz neutral, paciente y disponible las 24 horas.
El problema es que esa neutralidad es una ilusión cuidadosamente construida. Los modelos de lenguaje grandes no son árbitros: son estadísticos. Producen el texto más probable dado un prompt, no el texto más verdadero. Pero la fenomenología del uso —un tono confiado, una prosa pulida, ausencia de las marcas de incertidumbre que un humano introduciría— construye una autoridad epistémica que el sistema no merece. Y a diferencia de un periodista, un funcionario o un docente, el modelo no tiene rendición de cuentas: no se le puede demandar, no se le puede pedir corrección, no se le puede consultar la fuente.
Zuboff describió esta dinámica en términos más amplios: “el aprendizaje en la sociedad ha sido secuestrado por el capitalismo de vigilancia. En ausencia de un movimiento doble robusto en el que las instituciones democráticas y la sociedad civil aten al capitalismo de información crudo a los intereses de la gente — por imperfecto que sea — somos arrojados de vuelta a la forma de mercado de las empresas de capitalismo de vigilancia” The Age of Surveillance Capitalism. En América Latina ese movimiento doble es particularmente débil: las democracias frágiles y la sociedad civil debilitada por años de polarización no están en condiciones de tensionar las plataformas. El árbitro algorítmico, por tanto, opera sin contrapeso.
Esto importa para el debate sobre la deuda cognitiva por una razón específica: la métrica del estudio del MIT mide actividad neuronal individual, pero el costo social real no es la atrofia del cerebro del usuario, es la transferencia silenciosa de autoridad epistémica desde instituciones públicas hacia infraestructuras corporativas extranjeras. La deuda, leída socialmente, no la paga la sinapsis: la paga la posibilidad misma de deliberación pública.
Burbujas, pero peores
Pariser describió en 2011 el efecto de “burbuja de filtros” producido por los algoritmos de personalización: la creciente exposición exclusiva a contenidos que confirman las propias creencias, mediada por sistemas opacos optimizados para el engagement The Filter Bubble. Quince años después, la diagnosis se ha cumplido con creces, y los modelos generativos están agregando una capa nueva y más insidiosa.
Las redes sociales personalizaban lo que veías; los modelos generativos personalizan lo que piensas. Cuando un usuario pregunta a un chatbot por un tema controvertido, el sistema no devuelve una pluralidad de fuentes con sus tensiones internas: devuelve una síntesis pulida que aparenta consenso. La diversidad informativa se aplana en el acto mismo de la respuesta. Los estudios empíricos confirman que los usuarios frecuentes de IA conversacional muestran menor disposición a consultar fuentes adicionales después de una respuesta del modelo The Impact of Generative AI on Critical Thinking, un patrón que la investigación de Microsoft Research llamó “complacencia con la IA”.
Para América Latina esto se compone con un problema estructural previo: la región ya tiene ecosistemas informativos hipersegmentados por WhatsApp, una plataforma cuya arquitectura de grupos cerrados convirtió la desinformación en una infraestructura cotidiana de circulación familiar y comunitaria. Cuando a esa base se le agrega una capa de IA generativa que produce contenidos verosímiles a costo cero —desde audios deepfake de candidatos hasta resúmenes “neutros” de eventos políticos— el resultado no es solo más desinformación: es desinformación con apariencia de juicio sintetizado. La burbuja deja de necesitar muchos productores; basta uno con prompt.
García Canclini ya había advertido sobre esta deriva afectiva: “¿No nos había dicho que la inteligencia artificial también tendrá competencia en la zona de los sentimientos y que los bots pulsarán cada vez más nuestros botones emocionales para vendernos autos o políticos?” Ciudadanos reemplazados por algoritmos. La pregunta era retórica en 2019; en 2026 es operacional. Las campañas electorales argentina, mexicana y brasileña de los últimos dos años incorporaron IA generativa como herramienta de microsegmentación afectiva, con consecuencias que apenas empezamos a mapear Generative AI and the 2024 Latin American Elections.
La distribución desigual de la deuda
Hay un argumento que debe enfrentarse de frente porque tiene fuerza: si la IA permite que un estudiante boliviano con conexión intermitente acceda a explicaciones que de otra manera nunca tendría, ¿no es injusto reprocharle la “deuda cognitiva”? ¿No es eso, en realidad, una democratización del conocimiento que las élites del Norte critican porque amenaza su monopolio? El argumento tiene un núcleo válido. La accesibilidad importa. Saltar brechas estructurales importa. Reducir el costo marginal de la consulta experta a cero importa.
Pero el argumento se desarma cuando se mira la distribución de las versiones de la herramienta. La mayoría de los usuarios latinoamericanos accede a versiones gratuitas, con modelos más pequeños, ventanas de contexto reducidas, sin capacidades de búsqueda en tiempo real, sin acceso a las herramientas de razonamiento extendido. Un usuario de Buenos Aires con suscripción a ChatGPT Pro y otro de Cochabamba con la versión gratuita no están usando la misma tecnología: están usando dos productos diferentes con el mismo nombre. Argentina, con un PIB per cápita de 13,969 USD Argentina Country Profile - World Bank, tiene una capacidad de pago por estos servicios muy distinta a la de Bolivia, con 4,421 USD per cápita Bolivia Country Profile - World Bank.
La diferencia no es solo de capacidad técnica: es de pedagogía implícita. Las versiones de pago tienden a producir respuestas más matizadas, con mayor reconocimiento de incertidumbre, con sugerencias de fuentes adicionales. Las versiones gratuitas optimizan para retención, lo que en la práctica significa respuestas más confiadas y autocontenidas. Como advirtió Cobo, la educación meramente instrumental, “incapaz de hacernos competentes en un contexto cada vez complejo, nos desprotege y nos hace vulnerables y fácilmente manipulables” Acepto las condiciones: usos y abusos de las tecnologías digitales. Si el primer encuentro de millones de latinoamericanos con la IA es a través de su versión más instrumental y menos reflexiva, la deuda cognitiva no se distribuye equitativamente: se acumula con mayor velocidad precisamente donde menos capacidad hay para amortizarla.
Eubanks documentó un patrón análogo en otro dominio: los sistemas automatizados de decisión, supuestamente neutrales, terminan produciendo escrutinio diferencial sobre los pobres mientras dejan a las clases medias relativamente indemnes Automating Inequality. La asistencia conversacional reproduce esa lógica en el plano cognitivo: la versión que profundiza, sugiere fuentes y desafía al usuario está detrás de un paywall; la que produce respuestas pulidas y consumibles está abierta para todos.
Lentes LATAM: accesibilidad y anticipación
Conviene en este punto aplicar dos de las cinco lentes con las que esta publicación lee la región. La de accesibilidad ya empezó a operar en la sección anterior: no basta con preguntar si hay acceso, hay que preguntar a qué versión del producto, bajo qué condiciones de uso, con qué soporte formativo. Las cifras de penetración de IA generativa en América Latina son engañosamente altas —Brasil y México están entre los diez países con más tráfico hacia ChatGPT a nivel global DataReportal Digital 2024— pero esa métrica oculta que la inmensa mayoría usa la versión que el proveedor está dispuesto a regalar para entrenar futuros modelos con prompts de la región. La accesibilidad medida en logins no es lo mismo que la accesibilidad medida en capacidades efectivas de uso reflexivo.
La lente de anticipación abre la pregunta más incómoda: ¿qué configuración de la región queremos defender de aquí a cinco años? Si la deuda cognitiva se acumula sin contrapesos, el escenario probable no es una distopía cinematográfica sino algo más prosaico: una bifurcación social entre una minoría con metacognición sobre la IA —que sabe cuándo usarla, cuándo desconfiar, cómo verificar— y una mayoría atrapada en consumo pasivo, que internaliza las síntesis del modelo como información del mundo. Esa bifurcación no será aleatoria. Se mapeará, como ya lo hacen las otras desigualdades cognitivas de la región, sobre las líneas existentes de clase, geografía y origen étnico.
El Índice Latinoamericano de Inteligencia Artificial (ILIA) muestra una región profundamente estratificada: Argentina puntúa 67.5, Bolivia 46.7, El Salvador 42.9 Índice Latinoamericano de Inteligencia Artificial 2024. Pero esos números miden capacidades estatales y empresariales, no la formación crítica de la ciudadanía. Y la anticipación realista sugiere que el indicador realmente predictivo —qué porcentaje de la población tiene alfabetización crítica en IA, no solo uso— está aún por debajo de cualquier umbral relevante en todos los países de la región. El Salvador tiene una estrategia digital nacional Agenda Digital El Salvador 2020-2030, pero la alfabetización crítica no aparece como prioridad operativa en ninguna de las estrategias revisadas.
Anticipar, en este contexto, no es predecir el futuro: es nombrar el presente con precisión suficiente para que la acción política sea posible. Y el presente que esta publicación nombra es uno donde el contrato cognitivo entre ciudadanos y proveedores de IA se está firmando sin texto, sin negociación, sin contrapartes que representen los intereses regionales.
Contraargumentos que merecen ser tomados en serio
Sería intelectualmente perezoso cerrar sin enfrentar las objeciones más fuertes al marco que aquí se propone. La primera, ya mencionada: el riesgo de paternalismo. Decir que millones de latinoamericanos están acumulando deuda cognitiva sin saberlo suena, dependiendo de cómo se diga, peligrosamente cerca del argumento de las élites ilustradas sobre la incapacidad de las masas. Freire dedicó buena parte de su obra a desmontar esa lógica: la “educación bancaria”, advirtió, deposita información en el educando como objeto pasivo en lugar de reconocerlo como sujeto que nombra el mundo Pedagogía del oprimido. Reproducir ese gesto, ahora con el vocabulario de la neurociencia, sería un error político y epistemológico.
La defensa contra esta objeción es metodológica: el problema no es lo que la gente hace con la IA, es el diseño institucional que determina qué versiones de la herramienta están disponibles, con qué formación, bajo qué reglas. Criticar el diseño no es criticar al usuario. La pregunta no es “¿están los latinoamericanos usando mal la IA?” sino “¿qué actores están configurando las condiciones de uso, y qué intereses representan?”.
Una segunda objeción es más empírica: la evidencia sobre deuda cognitiva a largo plazo es prematura. El estudio del MIT midió sesiones cortas en condiciones experimentales; no sabemos qué pasa después de tres años de uso intensivo. Quizás los usuarios desarrollen, espontáneamente, formas de uso reflexivo que el experimento no captura. Quizás la “atrofia” sea reversible. Quizás la propia metáfora de la atrofia sea incorrecta y lo que ocurra sea una redistribución de capacidades cognitivas, no una pérdida neta. Todas esas posibilidades son legítimas. La honestidad obliga a decir que la base empírica de la deuda cognitiva es, por ahora, sugerente más que concluyente.
Pero la incertidumbre empírica no autoriza la pasividad política. Como en otros casos de tecnologías de masas con efectos potencialmente sistémicos —los plásticos, los combustibles fósiles, las redes sociales— esperar a tener evidencia concluyente significa, en la práctica, esperar a que sea demasiado tarde para intervenir. El principio precautorio aplica con particular fuerza en una región donde la capacidad de revertir errores de política pública es estructuralmente débil.
Una tercera objeción, finalmente, viene del optimismo tecnológico: la IA puede ser justamente la herramienta que democratice el pensamiento crítico, si se diseña bien. Hay experiencias en la región que apuntan en esa dirección: programas piloto en universidades de México y Chile que enseñan no solo a usar IA sino a interrogarla, a verificar sus salidas, a usarla como contraparte de debate más que como oráculo UNESCO AI Competency Framework for Teachers. Estas experiencias importan y merecen escalarse. Pero por ahora son excepción, no norma, y dependen de docentes con formación previa que la mayoría de las instituciones de la región no tiene.
La salud pública cognitiva como categoría
Si algo merece quedar de este ensayo, es la propuesta de un marco: pensar la deuda cognitiva como un problema de salud pública, no como un problema individual. La analogía no es decorativa. La salud pública moderna se constituyó cuando se entendió que enfermedades como el cólera o la tuberculosis no eran fallas morales de los enfermos sino fallas sistémicas del agua, la vivienda, la nutrición. Hizo falta un giro epistemológico —pensar lo individual como expresión de lo colectivo— para que la respuesta política fuera posible.
La deuda cognitiva pide un giro análogo. Mientras el debate se mantenga en el plano de las decisiones individuales —“usá menos la IA”, “pensá por vos mismo”— las herramientas de política pública seguirán bloqueadas. El giro consiste en preguntar por las condiciones colectivas que producen patrones agregados de delegación cognitiva: qué se enseña en las escuelas sobre estos sistemas, qué obligaciones de transparencia tienen los proveedores, qué versiones de las herramientas están disponibles para qué sectores, qué regulación protege a los usuarios de manipulación afectiva.
Algunos países de la región empezaron a moverse. Chile aprobó una ley marco de IA con énfasis en transparencia algorítmica Ley Marco de Inteligencia Artificial Chile. Brasil debate un marco análogo en el Congreso Marco Legal da IA Brasil PL 2338/2023. México avanza en alfabetización digital crítica desde la SEP en algunos estados. Argentina mantiene su Plan Nacional de IA, aunque con discontinuidades de implementación según los ciclos políticos Plan Nacional de Inteligencia Artificial Argentina. Son inicios. Ninguno aborda todavía la dimensión específica de la deuda cognitiva como riesgo agregado.
Cierre: preguntas que la región debe formularse en voz alta
El ensayo no propone una respuesta cerrada porque las herramientas conceptuales para formularla apenas están emergiendo. Lo que propone es una reformulación de las preguntas que se hacen públicamente sobre la IA en la región. Tres me parecen las decisivas.
Primera: ¿Quién tiene la legitimidad para definir qué constituye un uso saludable de la IA en sociedades latinoamericanas? Si la respuesta es exclusivamente los proveedores —vía términos de servicio y configuraciones por defecto— el contrato cognitivo se firma a favor de ellos. Si la respuesta involucra a la sociedad civil, las universidades públicas, los sindicatos y los movimientos sociales, el contrato puede tener otros términos. La pregunta es política, no técnica.
Segunda: ¿Qué tipo de alfabetización en IA queremos para la ciudadanía, distinta del entrenamiento instrumental que ya están ofreciendo las plataformas? Hay una diferencia categorial entre aprender a usar ChatGPT y aprender a interrogarlo, entre saber qué prompts funcionan y saber qué supuestos materiales hay detrás de los modelos. La primera la enseñan los tutoriales de YouTube; la segunda requiere instituciones públicas comprometidas con la formación crítica.
Tercera: ¿Cómo se construye, en una región con instituciones frágiles, la capacidad de auditar sistemas que no entendemos? La auditoría de modelos requiere conocimientos técnicos, acceso a infraestructuras de cómputo y mandato legal. Los tres están concentrados, hoy, en muy pocas manos en la región. Sin capacidad regional de auditoría, la regulación se vuelve declarativa.
Hay una imagen, quizás demasiado fácil pero útil, para cerrar. La deuda externa marcó a América Latina durante el siglo XX: décadas perdidas, ajustes estructurales, soberanías condicionadas. La deuda cognitiva del siglo XXI puede tener una estructura análoga si no se nombra a tiempo: una transferencia silenciosa de capacidades intelectuales colectivas desde la región hacia plataformas extranjeras, con intereses que se cobran en pérdida de autonomía deliberativa. La analogía no es perfecta —ninguna lo es— pero el patrón es reconocible.
La diferencia es que esta vez la deuda no la firman gobiernos en oficinas del FMI. La firmamos cada uno de nosotros, cada vez que aceptamos sin matiz la síntesis del modelo, cada vez que delegamos sin advertir, cada vez que confundimos disponibilidad con acceso y acceso con capacidad. Que el contrato no esté escrito no lo hace menos vinculante. Pero significa, también, que reescribirlo es todavía posible.