La primera generación de humanos dotados de externalización cognitiva

IMAGE: A man relaxes while using his smartphone as glowing digital networks connect his brain to icons representing search, navigation, and communication, symbolizing outsourced thinking

Durante años, hemos ido externalizando partes de nuestra cognición de forma tan gradual que apenas nos hemos dado cuenta. Externalizamos la memoria a los motores de búsqueda después de que el conocido «efecto Google» demostrara que, cuando esperamos que la información siga disponible en internet, es menos probable que la recordemos y más probable que recordemos dónde encontrarla. Externalizamos la navegación al GPS, incluso cuando la investigación empezó a mostrar que su uso intensivo puede debilitar la memoria espacial cuando tenemos que orientarnos por nuestra cuenta. Y hemos externalizado cada vez más la coordinación social a plataformas que deciden qué vemos, cuándo respondemos y cómo nos sincronizamos con los demás.

Ahora empezamos a externalizar algo mucho más relevante: no la memoria, no la orientación, no la agenda, sino el propio pensamiento. O, más exactamente, el trabajo de formarse un juicio antes de expresarlo.

Ese es el verdadero cambio cultural que se esconde detrás del entusiasmo actual por la inteligencia artificial generativa. La tecnología suele presentarse como una capa de productividad, un acelerador de creatividad o un asistente universal. Y sí, en muchos casos lo es. Pero también introduce una tentación peligrosa: confundir la producción sin fricción con la comprensión real, y las respuestas fluidas con el juicio construido. Investigaciones de Microsoft Research han encontrado que una mayor confianza en la inteligencia artificial generativa se asocia con menos pensamiento crítico, mientras que un estudio en Acta Psychologica vincula una mayor dependencia de la inteligencia artificial con niveles más bajos de pensamiento crítico. Un comentario reciente en Nature Reviews Psychology lo resumía perfectamente: las mejoras en rendimiento que aporta la inteligencia artificial generativa no deben confundirse con aprendizaje.

He defendido antes que la inteligencia artificial no sustituirá a la estrategia sino que la dejará al descubierto, y que centrarse en la reducción de costes durante la revolución de la inteligencia artificial es un error estratégico. Esta es la versión cognitiva del mismo error. Cuando las personas utilizan la inteligencia artificial como sustituto del juicio en lugar de como herramienta para afinarlo, no se vuelven más capaces. Simplemente se vuelven más dependientes.

La era de la externalización cognitiva

Los psicólogos lo llaman cognitive offloading: trasladar trabajo mental a una ayuda externa. Una lista de la compra es externalización cognitiva. Una calculadora también. Lo mismo que un calendario, un cuaderno o una app de recordatorios. En ese sentido, no hay nada intrínsecamente nuevo ni siniestro en esto. Los seres humanos siempre han construido herramientas para ampliar la mente. Una revisión reciente en Nature Reviews Psychology señala que externalizar puede mejorar el rendimiento en algunas tareas, aunque también tiene sus desventajas. Y una perspectiva más amplia en Nature Human Behaviour sugiere que la tecnología digital puede estar cambiando la cognición sin evidencia clara de un daño generalizado y duradero.

El problema no es externalizar per se. El problema es qué estamos externalizando.

Cuando externalizamos el almacenamiento, ahorramos esfuerzo. Cuando externalizamos la navegación, reducimos incertidumbre. Pero cuando externalizamos el juicio, corremos el riesgo de debilitar la facultad que nos permite decidir si la máquina es útil, engañosa, sesgada, superficial, manipuladora o simplemente incorrecta.

Ese riesgo importa más de lo que muchas organizaciones parecen dispuestas a admitir. Porque la inteligencia artificial generativa no solo responde preguntas: crea una ilusión de competencia tan convincente que puede borrar la diferencia entre «entiendo esto» y «puedo producir algo que haga que parezca que lo entiendo». Nature revisó recientemente la evidencia sobre memoria y herramientas digitales y subrayó un punto importante: las afirmaciones más alarmistas sobre el deterioro cognitivo suelen ser exageradas. Pero también señalaba que ciertas capacidades pueden alterarse de forma significativa, incluyendo una confianza inflada y cambios en los patrones de recuerdo. Precisamente por eso este momento merece más seriedad de la que suelen aportarle tanto los optimistas ingenuos como los catastrofistas.

La fluidez no es cognición

Lo que hace culturalmente desestabilizadora a la inteligencia artificial generativa no es solo que sea útil. Es que es fluida.

Una calculadora nunca fingió entender la aritmética. Tu GPS nunca afirmó saber cómo se siente una ciudad. Los motores de búsqueda no hablaban en primera persona ni ofrecían resúmenes seguros en prosa perfecta. La inteligencia artificial generativa sí lo hace. Produce lenguaje con una pulidez y una cercanía al rendimiento retórico humano que hace fácil confundir coherencia lingüística con razonamiento.

Pero una respuesta bien formulada no es lo mismo que una respuesta bien pensada. Los grandes modelos de lenguaje son motores de patrones asombrosos, pero no poseen juicio en el sentido humano del término. Como señalaba recientemente un artículo de Harvard Business School, la experiencia y el juicio humanos siguen siendo críticos porque la inteligencia artificial no puede distinguir de forma fiable entre ideas realmente buenas y otras simplemente plausibles, ni puede guiar por sí sola una estrategia a largo plazo. Ese argumento no es anti-inteligencia artificial: es simplemente anti-ingenuidad.

Aquí es donde empieza a aparecer la verdadera división. No entre quienes usan inteligencia artificial y quienes no. Esa distinción ya empieza a ser trivial. La diferencia relevante es entre quienes usan la inteligencia artificial como compañera de pensamiento y quienes la utilizan como sustituto del pensamiento.

Los primeros se ven amplificados por ella. Los segundos se van vaciando poco a poco.

La educación es donde esto se vuelve imposible de ignorar

Si quieres ver claramente lo que está en juego, mira la educación. La ansiedad en torno a la inteligencia artificial en escuelas y universidades suele plantearse en términos de trampas, plagio o integridad en la evaluación. Son problemas reales, pero no el más profundo.

El problema de fondo es que la inteligencia artificial generativa puede mejorar el rendimiento sin generar aprendizaje.

El Digital Education Outlook 2026 de la OCDE, que ya he citado en artículos anteriores (es seriamente bueno), es especialmente claro en este punto: cuando los estudiantes externalizan tareas a la inteligencia artificial generativa sin una guía pedagógica adecuada, el rendimiento puede mejorar incluso cuando el aprendizaje real no lo hace. La UNESCO ha planteado un argumento similar en sus directrices sobre inteligencia artificial generativa en educación e investigación, advirtiendo de que estos sistemas deben utilizarse dentro de un marco centrado en lo humano y no como atajos que eviten el proceso cognitivo. Y la OCDE lleva años insistiendo en que la creatividad y el pensamiento crítico no son habilidades accesorias, sino objetivos centrales en una sociedad digital.

Por eso gran parte del pánico institucional en torno a la inteligencia artificial pierde el foco. La cuestión no es si los estudiantes usarán inteligencia artificial: por supuesto que lo harán. La cuestión es si seguirán obligados a ejercer juicio mientras la utilizan.

Ya defendí algo similar en «La inteligencia artificial podría transformar la educación… si las universidades responden correctamente«, porque demasiadas instituciones están obsesionadas con la vigilancia en lugar de rediseñar el aprendizaje para un mundo en el que la externalización cognitiva es ya la norma. Si los estudiantes pueden generar trabajos aceptables sin enfrentarse a las ideas, lo que realmente se evalúa no es el aprendizaje, sino la obediencia.

La paradoja de la era de la inteligencia artificial

Aquí está la paradoja que mucha gente aún no ha entendido: las personas que más se beneficiarán de la inteligencia artificial no serán las que la usen para todo.

Serán las que sepan cuándo no usarla.

No es una defensa romántica del pensamiento artesanal. Es un argumento práctico sobre el apalancamiento. Las personas con buen juicio, conocimiento sólido de su dominio y escepticismo disciplinado pueden usar la inteligencia artificial para avanzar más rápido sin renunciar a la autoría. Pueden cuestionar resultados, contrastar supuestos, comparar alternativas y detectar cuándo la máquina está simplificando en exceso o inventando certezas. Quienes no tienen esos hábitos son mucho más propensos a aceptar la primera respuesta plausible y seguir adelante.

La literatura reciente en management empieza a converger en esta idea. Harvard Business Review ha argumentado que trabajar bien con inteligencia artificial exige actuar como quien toma decisiones, no como un usuario pasivo de herramientas. Otro artículo reciente advierte de que, si la inteligencia artificial se encarga del trabajo inicial más confuso, precisamente el que ayuda a desarrollar criterio, las organizaciones pueden acabar con personas capaces de producir resultados sin haber construido nunca juicio. Incluso investigaciones sobre creatividad citadas por HBR apuntan en la misma dirección: la inteligencia artificial tiende a beneficiar más a quienes tienen buena metacognición que a quienes no la tienen.

Por eso este es un problema cultural, no solo tecnológico. No estamos simplemente incorporando una herramienta nueva a hábitos existentes. Estamos renegociando la relación entre esfuerzo y autoría, entre comodidad y competencia, entre expresión y comprensión.

De qué deberíamos preocuparnos realmente

El error más común en el debate público sobre la inteligencia artificial es oscilar entre dos caricaturas. Una dice que la inteligencia artificial nos volverá estúpidos. La otra que simplemente nos liberará para tareas de mayor nivel. La realidad es más compleja, y más interesante.

Bien utilizada, la inteligencia artificial puede reducir tareas tediosas y abrir espacio para pensar mejor. Mal utilizada, puede erosionar los hábitos que hacen posible pensar mejor.

Por eso la respuesta correcta no es ni la prohibición ni la rendición. Es el diseño. Necesitamos sistemas educativos, normas laborales y decisiones de producto que preserven el juicio humano en lugar de rodearlo. Necesitamos interfaces que fomenten la verificación, la reflexión y la comparación en lugar de empujar a la aceptación pasiva. Necesitamos dejar de considerar cualquier reducción del esfuerzo mental como progreso.

Porque no toda fricción es desperdicio. Parte de esa fricción es precisamente donde nace la comprensión.

Y ese es el error central detrás de gran parte del entusiasmo actual por la inteligencia artificial. Estamos midiendo velocidad, comodidad y volumen mientras ignoramos una pregunta mucho más difícil: ¿qué tipo de mente nos están ayudando a construir estos sistemas?

Esa es la pregunta que debería definir esta fase de la era de la inteligencia artificial: no si las máquinas pueden pensar como nosotros, sino si, al apoyarnos en ellas sin cuidado, podemos acabar dejando de pensar como nosotros mismos.

El futuro no pertenecerá a quienes más usen la inteligencia artificial. Pertenecerá a quienes sepan cuándo no usarla.


(This article was previously published on Fast Company)

Liked Liked