Arquitectura de la dependencia: cómo las herramientas de IA están diseñadas para cobrar intereses sobre la deuda cognitiva
Cuando un usuario de Buenos Aires, Bogotá o San Salvador abre ChatGPT a las once de la noche para resolver una duda laboral, no está accediendo a una herramienta neutral que espera órdenes. Está entrando en un entorno minuciosamente diseñado para extraer un comportamiento específico: la pregunta rápida, la aceptación de la primera respuesta, el regreso al día siguiente. La interfaz —ese campo de texto en blanco, esa burbuja de respuesta que aparece tipeando con cadencia humana— no es la forma natural que adoptaría un sistema de razonamiento si su único objetivo fuera ayudarte a pensar mejor. Es la forma que adopta cuando su objetivo es que vuelvas mañana.
La conversación global sobre la deuda cognitiva —el deterioro de capacidades intelectuales por delegación sostenida a la IA— se ha popularizado con un estudio del MIT Media Lab que midió la actividad cerebral de estudiantes escribiendo ensayos con y sin asistencia de modelos de lenguaje, mostrando reducciones consistentes en conectividad neuronal entre quienes usaron ChatGPT Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Tasks. Pero ese debate, tal como circula en América Latina, tiende a moralizarse en torno al usuario: ¿usás bien o usás mal la herramienta? La pregunta está mal planteada. Antes de preguntar cómo usamos las herramientas, hay que preguntar cómo están diseñadas las herramientas para usarnos a nosotros. La deuda cognitiva no es un efecto colateral de un mal hábito individual: es el rendimiento esperado de una arquitectura de producto que monetiza la dependencia.
El diseño no es neutral, nunca lo fue
Hay una pregunta que rara vez se hace en las notas de divulgación sobre IA en la región: ¿por qué la interfaz dominante de los modelos de lenguaje es un chat? Técnicamente no había ninguna razón para que así fuera. GPT-3, lanzado en 2020, vivía en un playground con parámetros visibles, ventanas de contexto editables, controles de temperatura, opciones de comparar respuestas múltiples. Era un entorno para operar el modelo. ChatGPT, dos años después, escondió todo eso detrás de una burbuja conversacional que mimetiza WhatsApp The inside story of how ChatGPT was built from the people who made it. La decisión fue de diseño de producto, no de capacidad técnica: la conversación genera más enganche, más sesiones, más datos de entrenamiento gratuitos a través de los pulgares arriba y abajo.
Kate Crawford lo nombra con precisión cuando habla del determinismo encantado que rodea a estos sistemas: se nos pide concentrarnos en lo innovador del método y no en el propósito de la cosa misma, y ese encantamiento clausura el escrutinio crítico The Atlas of AI. La pregunta sobre por qué una herramienta de razonamiento se presenta como un interlocutor amistoso —en lugar de, digamos, un cuaderno con varias respuestas paralelas que invite a comparar— queda fuera del marco. El chat se naturaliza. Y con él, el flujo de uso que premia la rapidez sobre la deliberación.
Esto importa especialmente porque los gestos de diseño tienen consecuencias cognitivas medibles. Cuando la interfaz devuelve una respuesta autoritativa en lugar de tres alternativas que requieran elección, el usuario hace menos trabajo de evaluación. Cuando la respuesta aparece en segundos —con esa animación de tipeo que es teatro puro, dado que el modelo podría escupir todo el texto de una vez— el ritmo invita a aceptar y seguir. La investigación del MIT mostró que los participantes que usaron asistencia de IA tuvieron dificultades sustancialmente mayores para recordar y citar el contenido que ellos mismos habían “escrito” minutos antes Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Tasks. No es que la herramienta los volviera tontos: es que la herramienta hizo el trabajo de codificación mnémica por ellos, y ese trabajo era precisamente la parte cognitivamente valiosa.
El modelo freemium como pedagogía invertida
La economía de las herramientas conversacionales descansa en un truco que la industria del software perfeccionó con los videojuegos móviles: regalar el hábito y cobrar la consolidación. La versión gratuita de ChatGPT, Gemini o Claude no es una muestra; es la fase de inducción. Ofrece lo suficiente para que el uso se vuelva reflejo —la consulta automatizada antes de googlear, antes de pensar, antes de preguntarle a un colega— y luego limita el modelo más capaz, el contexto más largo, las herramientas integradas, para empujar a la suscripción.
Para América Latina, este modelo es particularmente perverso. Una suscripción mensual a ChatGPT Plus cuesta veinte dólares: aproximadamente el 0.4% del ingreso mensual promedio de un trabajador uruguayo, pero el 4.3% del ingreso mensual promedio de un trabajador salvadoreño si tomamos los PIB per cápita de 2024 GDP per capita (current US$). El mismo producto, en términos de capacidad reflexiva real, le sale diez veces más caro al salvadoreño que al uruguayo. Y como la mayoría no paga, la mayoría se queda con la versión que está calibrada para generar hábito sin entregar las herramientas avanzadas —ventanas de contexto largas, modos de razonamiento explícito, acceso a herramientas de verificación— que podrían contrapesar la deuda cognitiva.
El resultado es una asimetría que García Canclini anticipó casi como una profecía sobre el acompañamiento algorítmico: la IA opera como una forma de superyó dotado de la intuición de la verdad que orienta el curso de nuestras acciones individuales y colectivas Ciudadanos reemplazados por algoritmos. En la versión gratuita —la que usa la mayoría de la región— ese superyó algorítmico está además optimizado para retener al usuario, no para ayudarlo a pensar. El producto que profundiza la dependencia es exactamente el producto que se distribuye gratis.
Hay aquí una inversión pedagógica que merece nombrarse. La tradición latinoamericana del pensamiento crítico, desde Freire hasta Martín-Barbero, insistió en que la liberación cognitiva pasa por nombrar el mundo, por convertir al sujeto en productor de sentido y no en receptor de paquetes informativos Pedagogía del oprimido. La interfaz conversacional moderna hace exactamente lo contrario: te invita a delegar la nominación del mundo a un sistema que ya tiene una respuesta lista, en formato breve, con tono conciliador, sin notas al pie que rompan el flujo. Es pedagogía bancaria automatizada.
La opacidad como característica de producto
Una herramienta diseñada para fomentar la reflexión mostraría su trabajo. Exhibiría las fuentes que consultó, las alternativas que descartó, los puntos donde la evidencia era débil. Algunos modelos recientes —los llamados reasoning models como o1 de OpenAI o DeepSeek R1— ofrecen ahora una traza de razonamiento intermedio. Pero esa traza, en la mayoría de los productos comerciales, está parcialmente oculta o resumida, y la decisión es deliberada: OpenAI explicó que mantiene el razonamiento crudo de o1 fuera del alcance del usuario por razones de “ventaja competitiva” y de seguridad Learning to reason with LLMs. El usuario recibe un destilado pulido, no el proceso. Justo aquello que más serviría para construir alfabetización crítica —ver cómo el modelo dudó, dónde fabricó, qué descartó— queda detrás de un muro.
Esta opacidad no es un accidente técnico ni una limitación de la ciencia. Es una decisión de producto que beneficia simultáneamente al margen comercial y a la dependencia cognitiva. Si vieras los siete caminos que el modelo consideró antes de darte el octavo, podrías pensar que el quinto era mejor para tu caso. Podrías comparar. Podrías —horror— prescindir del producto en algunos usos. La opacidad protege la marca y, de paso, te entrena a aceptar la respuesta única.
Shoshana Zuboff describió la lógica más amplia: en el capitalismo de vigilancia, el producto no es la información que recibís sino la modificación de tu comportamiento, y esa modificación requiere que el mecanismo permanezca asimétricamente invisible para el usuario y nítidamente legible para la plataforma The Age of Surveillance Capitalism. En la conversación con un chatbot esa asimetría se materializa con elegancia: vos sos transparente —cada consulta queda registrada, cada corrección entrena al sistema— y el modelo es opaco. Vos pagás con cognición y atención; el sistema cobra con ambas.
El reciente giro hacia la “personalización” como mecanismo de captura
En los últimos meses, OpenAI, Google y Anthropic han empujado funcionalidades de memoria persistente: el modelo “recuerda” tus preferencias, tu estilo, tus proyectos, tus relaciones Memory and new controls for ChatGPT. El framing es servicio: ya no tenés que repetirle al asistente quién sos. La consecuencia económica es captura: cambiar de proveedor implica perder el perfil acumulado, y el costo psicológico de empezar de cero con otro modelo aumenta con cada mes de uso.
Esto reproduce, en escala individual, el efecto de cierre que las plataformas sociales aprendieron a explotar hace una década. El lock-in ya no es solo de datos en una nube ajena: es de identidad cognitiva externalizada. Un usuario que ha entrenado a ChatGPT durante dos años para que conozca su forma de escribir, sus áreas de interés, sus pacientes o sus clientes, no está en condiciones de comparar realmente con un competidor. Está pagando deuda por el privilegio de seguir delegando.
Para América Latina, donde la soberanía digital es un tema recurrente en planes nacionales como la Estrategia de IA para el Gobierno Digital de Uruguay Estrategia de IA para el Gobierno Digital, esta captura individual escala a captura nacional. Si el cuadro profesional, técnico y educativo de un país acumula cinco años de memoria persistente en servidores de empresas estadounidenses, la conversación sobre alternativas regionales —modelos abiertos, infraestructura latinoamericana— ocurre demasiado tarde. La deuda cognitiva, en plural y a escala país, se vuelve deuda de soberanía.
Las herramientas que sí intentan otra cosa (y por qué casi nunca ganan)
Sería deshonesto presentar el panorama como uniformemente oscuro. Existen herramientas con diseño deliberadamente reflexivo. NotebookLM, de Google, fuerza al usuario a aportar sus propias fuentes antes de generar respuestas, y cita cada afirmación al documento de origen NotebookLM. Elicit, orientado a investigación académica, expone explícitamente el grado de confianza y la procedencia de cada extracción. Perplexity, con todas sus limitaciones, normalizó el citado inline en consultas conversacionales Perplexity AI. Algunos modelos de razonamiento abierto, como los de la familia Qwen o DeepSeek, permiten inspeccionar el trazo completo del pensamiento intermedio.
El problema no es que estas alternativas no existan. El problema es que compiten en desventaja estructural. Una herramienta que te obliga a subir fuentes, a leer citas, a evaluar grados de confianza, requiere más esfuerzo cognitivo en cada uso. Eso significa: menos sesiones por usuario, menos retención, peor monetización. En un mercado donde la métrica dominante es engagement, las herramientas que respetan la cognición del usuario están castigadas por la lógica misma del capital de riesgo que financia al sector. No es casualidad que NotebookLM viva como producto experimental dentro de Google y no como reemplazo de Gemini.
Esto remite a una observación de la propia Crawford sobre el trabajo no visto que sostiene la cadena de la IA, desde las minas hasta los anotadores de datos The Atlas of AI. Hay un trabajo cognitivo análogo que las herramientas reflexivas le exigen al usuario: el trabajo de evaluar, comparar, dudar. Las herramientas de delegación pura lo desplazan al modelo —y el usuario lo percibe como ahorro, no como pérdida. Hasta que, dos años después, descubre que ya no sabe escribir un correo difícil sin asistencia.
Cinco lentes sobre el mismo precipicio
Accesibilidad: el efecto perverso del gratis
La métrica más comentada de la penetración de IA en América Latina es la enorme cantidad de usuarios que acceden a herramientas gratuitas. Brasil es uno de los mercados más grandes de ChatGPT a nivel mundial; México, Argentina y Colombia siguen en proporciones notables Latin America AI Adoption Index 2024. La narrativa oficial celebra esto como democratización. Pero la accesibilidad sin curaduría es exactamente el vector por el cual la deuda cognitiva se distribuye con mayor eficiencia.
El usuario que paga veinte dólares al mes tiene incentivos —si nada más, los del costo hundido— para reflexionar sobre cómo usa la herramienta. El usuario gratuito, atendido por el modelo más liviano, con limitaciones de mensajes y sin acceso a las funciones de razonamiento extendido, recibe simultáneamente la peor versión del producto y la mayor dosis de fricciones que premian la consulta rápida. La accesibilidad, en este encuadre, no equilibra: amplifica la asimetría. Lo que en Estados Unidos es un debate entre profesionales que pagan suscripciones premium, en El Salvador o Bolivia es un fenómeno masivo en su variante más adictiva y menos reflexiva.
Aplicabilidad: ¿deuda sobre qué activo?
Hay un argumento que circula entre comentaristas tecno-optimistas regionales: si los sistemas educativos latinoamericanos ya producen lecturas superficiales y comprensión lectora deficiente —como muestran consistentemente los resultados PISA y los reportes UNESCO regionales Estudio Regional Comparativo y Explicativo ERCE 2019 — entonces la “deuda cognitiva” por uso de IA difícilmente puede empeorar un escenario ya degradado. El argumento es ingenioso y profundamente equivocado. Asume que la deuda se cobra sobre un activo cognitivo robusto, y que cuando no hay activo no hay nada que perder.
Es al revés. Cuando el activo cognitivo es ya frágil, la deuda no se cobra en intereses: se cobra en capital. Un lector experto que delega tareas de redacción a ChatGPT pierde fluidez, pero conserva los esquemas de comprensión profunda que adquirió antes. Un estudiante o trabajador que nunca consolidó esos esquemas, y que entra al mercado laboral usando la IA como prótesis desde el día uno, no está pagando intereses sobre un capital existente: está fallando en formar el capital. La diferencia es entre alguien endeudado y alguien que nunca ahorró. La región tiene una proporción mucho mayor de la segunda categoría que del primero.
García Canclini ya señalaba que los conocimientos necesarios para desempeñarnos como ciudadanos se estrechan debido a la sustracción y el ocultamiento de datos por parte de las corporaciones y los gobiernos Ciudadanos reemplazados por algoritmos. La aplicabilidad real de la herramienta en contextos de baja consolidación cognitiva no es neutra: es donde el daño es estructuralmente mayor y donde la promesa de “saltar brechas” se invierte en consolidar nuevas.
Anticipación: la polarización metacognitiva
El escenario que la región debería estar mirando con atención —y casi nadie está mirando— es la polarización metacognitiva. Una minoría que entiende cómo funcionan estas herramientas, que las usa con auditoría, que mantiene su capacidad de operar sin ellas, que paga las versiones premium con razonamiento expuesto: esa minoría desarrollará una ventaja cognitiva acumulativa enorme en los próximos diez años. Una mayoría que las consume pasivamente, en sus versiones gratuitas y opacas, que delega sin auditar, que externaliza memoria e identidad profesional: esa mayoría pagará una deuda creciente.
Esto no es ciencia ficción. Es la dinámica que Virginia Eubanks documentó para los sistemas automatizados de asistencia social en Estados Unidos: las herramientas se distribuyen con mayor intensidad y menor consentimiento entre las poblaciones que tienen menos recursos para resistirlas o auditarlas Automating Inequality. La IA conversacional reproduce esa lógica en clave cognitiva. Y como las brechas se vuelven invisibles —porque todos “usan ChatGPT”, la palabra es la misma— el debate público no las nombra.
Contrapesos posibles: pausa, comparación, auditoría
Si la arquitectura del problema es de diseño de producto, los contrapesos también deben serlo. Hay tres movimientos concretos que las herramientas éticas tendrían que adoptar, y que algunos productos minoritarios ya prefiguran.
El primero es la pausa estructural: friction by design. Una herramienta orientada a la reflexión podría —debería— introducir momentos donde el flujo se detiene y se le pregunta al usuario qué piensa antes de mostrarle la respuesta del modelo. No como obstáculo, sino como invitación a formar una hipótesis propia que luego se compare con la del modelo. La investigación cognitiva sobre aprendizaje activo sugiere que esta inversión —generar antes de recibir— es donde se forma la memoria de largo plazo Make It Stick: The Science of Successful Learning. Casi ningún producto comercial implementa esto, porque rompe la métrica de engagement.
El segundo es la comparación obligatoria. En lugar de una respuesta única autoritativa, presentar dos o tres alternativas con distintos enfoques y forzar al usuario a elegir, justificando mínimamente la elección. Esto no requiere capacidad técnica adicional: los modelos generan trivialmente múltiples respuestas, y la decisión de mostrar solo una es de producto. Algunos playgrounds lo permiten; ningún chatbot masivo lo hace por defecto.
El tercero es la auditoría del proceso. Mostrar las fuentes, el grado de confianza, los puntos donde el modelo dudó, los conceptos que fabricó. La tecnología existe —se usa internamente en evaluación y red-teaming— pero llega al usuario en versiones cosméticas. Una herramienta seriamente orientada a contrapesar la deuda cognitiva expondría estos elementos como parte central de la interfaz, no como opciones avanzadas escondidas en un menú.
Ninguno de estos contrapesos es técnicamente difícil. Todos son comercialmente costosos. Por eso es ingenuo esperar que la industria los adopte sin presión: regulatoria, institucional, de consumo informado. Y aquí América Latina tiene una oportunidad que la región todavía no ha aprovechado.
Implicaciones para la región: regular el diseño, no el uso
El reflejo regulatorio latinoamericano, cuando aborda IA, tiende a copiar la conversación europea sobre riesgos, derechos y prohibiciones. El Plan Nacional de Inteligencia Artificial de Argentina y la Agenda Digital El Salvador 2020-2030 Agenda Digital El Salvador 2020-2030 replican en buena medida ese marco. Es un marco útil pero insuficiente, porque deja fuera la dimensión más decisiva: la regulación del diseño de producto.
La Unión Europea, en debates recientes sobre dark patterns, ha empezado a tratar como problemática legal el diseño deliberadamente adictivo de interfaces digitales Digital Services Act. El paralelo con IA conversacional es directo: las decisiones de mostrar una sola respuesta, ocultar el razonamiento, esconder fuentes, simular conversación humana mediante animaciones de tipeo, son dark patterns cognitivos. Una región que tomara en serio la deuda cognitiva como problema de política pública —y no solo como inquietud académica— intervendría sobre el diseño antes que sobre el uso.
Esto implicaría exigir a las herramientas que operan en la región: transparencia obligatoria del razonamiento, presentación de alternativas comparables, exposición de fuentes y grado de confianza, etiquetado claro de contenido generado, prohibición de animaciones que simulen procesamiento humano. No para frenar la adopción, sino para que la adopción ocurra en condiciones donde el usuario pueda construir alfabetización en lugar de dependencia.
Es una agenda ambiciosa y políticamente difícil. Las grandes plataformas no la quieren, los gobiernos regionales tienen poca capacidad técnica para imponerla, y la opinión pública la ve como burocracia que entorpece un servicio percibido como útil y gratis. Pero la alternativa —seguir tratando la deuda cognitiva como problema del usuario individual, exhortándolo a usar bien una herramienta diseñada para que use mal— es exactamente lo que la industria necesita que ocurra para que la deuda siga consolidándose.
Preguntas que la región debería dejar de evitar
Quedan abiertas, para cerrar, varias preguntas que la conversación regional todavía no se anima a formular con suficiente nitidez.
¿Quién audita el diseño de las herramientas que ya están instaladas en el flujo cognitivo cotidiano de millones de latinoamericanos, y con qué autoridad? ¿Hay capacidad técnica regional —en CONICET, en UNAM, en Universidad de Chile, en universidades brasileñas— para someter a estos productos a auditoría de patrones oscuros cognitivos, o esa capacidad está concentrada en jurisdicciones del norte cuyas prioridades regulatorias no coinciden con las nuestras? ¿Qué fracción del PIB educativo regional se está desplazando, silenciosamente, a suscripciones individuales de productos extranjeros que no reportan métricas de impacto cognitivo a ninguna autoridad regional?
¿Y qué pasa con la siguiente generación, la que entra a la fuerza laboral habiendo crecido con estas herramientas como infraestructura por defecto? La pregunta no es si serán “menos inteligentes” —ese encuadre es a la vez moralizante y empíricamente impreciso— sino qué tipo de inteligencia desarrollarán, y si esa inteligencia conservará la capacidad de operar críticamente sobre los sistemas que la formaron. Una generación que solo sabe pensar a través de modelos que no sabe auditar es una generación cuya soberanía cognitiva fue hipotecada antes de que pudiera firmar el contrato.
La deuda cognitiva no es una metáfora literaria. Es un balance que se está acumulando ahora, en cada consulta gratuita, en cada respuesta única aceptada sin comparación, en cada memoria persistente que consolida un cierre de plataforma. La pregunta no es si la región pagará. La pregunta es quién decide cuándo y cómo se cobra, y si esa decisión seguirá tomándose enteramente fuera de la región. Por ahora, la respuesta es desalentadora: la decisión se toma en reuniones de producto en San Francisco, donde la palabra engagement significa exactamente lo opuesto a lo que la palabra aprendizaje significó alguna vez para Freire, para Martín-Barbero, para cualquiera que haya pensado en serio qué quiere decir formar un sujeto crítico en América Latina.
Reconocer que la herramienta no es neutral es el primer movimiento. Exigir que se rediseñe es el segundo. Construir alternativas regionales que no reproduzcan la misma arquitectura es el tercero, y es el que todavía no hemos empezado.