Pensar cansa: por eso estamos empezando a dejar que la inteligencia artificial lo haga por nosotros

IMAGE: A modern illustration showing two people. On the left, a person is zoned out while using a computer; colorful, glowing data threads come from the screen, flowing around their head like an artificial brain process. On the right, another person is actively thinking and critical, with a distinct, glowing, gear-filled thought cloud appearing above their own head

Hay algo profundamente tentador en una respuesta bien escrita, inmediata y aparentemente razonable. Algo que invita a asentir, copiar, pegar… y seguir adelante. Durante años hemos delegado tareas en máquinas sin mayor problema, pero lo que empieza a emerger con la inteligencia artificial generativa no es una simple delegación: es otra cosa mucho más inquietante. Es lo que algunos investigadores ya llaman cognitive surrender, rendición cognitiva. Y el término no es exagerado.

La idea es sencilla, pero incómoda: no estamos usando la IA para pensar mejor, sino cada vez más para no tener que pensar. Y no porque no sepamos hacerlo, sino porque resulta más rápido, más cómodo y, sobre todo, más convincente aceptar lo que la máquina nos devuelve que someterlo al escrutinio que exigiría cualquier respuesta humana.

Un estudio reciente con más de mil participantes, publicado como working paper en SSRN y titulado «Thinking—fast, slow, and artificial: how AI is reshaping human reasoning and the rise of cognitive surrender«, lo deja claro: cuando una inteligencia artificial proporciona respuestas incorrectas, los usuarios siguen aceptándolas en más de un 70% de los casos. No es solo un problema de error, es un problema de sumisión. Lo verdaderamente preocupante es que muchos participantes no solo fallaban, sino que lo hacían con más confianza. Se equivocaban… pero convencidos de que no lo hacían.

Esto no va de ignorancia, sino de comportamiento: de cómo reaccionamos ante una fuente que parece fiable, articulada y segura de sí misma. La inteligencia artificial no duda, no titubea, no muestra inseguridad. Y en un entorno saturado de incertidumbre, eso la convierte en una especie de oráculo moderno. Uno que no siempre acierta, pero que siempre suena como si lo hiciera.

La psicología lleva décadas estudiando algo parecido bajo otros nombres: automatización, sesgo de autoridad, dependencia cognitiva. Pero hay una diferencia clave. Antes, las máquinas eran torpes, rígidas, claramente artificiales. Ahora, el interfaz conversacional disfraza sus limitaciones bajo una capa de lenguaje natural impecable. Y eso cambia radicalmente nuestra relación con ellas.

Porque no evaluamos una respuesta solo por su contenido, sino por su forma. Y una frase bien construida, fluida, coherente, tiene muchas más probabilidades de ser aceptada que una torpe, incluso aunque ambas sean igual de correctas… o de incorrectas. Lo anticipé hace ya tiempo aquí: el resultado es una externalización progresiva del razonamiento. No sólo buscamos información fuera de nuestra cabeza, algo perfectamente lógico, sino que empezamos a delegar el proceso mismo de pensar: estructurar un argumento, ponderar alternativas, detectar inconsistencias. Es decir, justo aquello que define el pensamiento crítico.

No todos caen igual. Quienes tienen mayor capacidad de razonamiento abstracto, lo que en psicología se denomina fluid reasoning, parecen resistir mejor esa tentación. Detectan mejor cuándo algo no encaja y mantienen (o tratan de mantener, según su nivel de conocimineto de la materia) una cierta distancia crítica. Pero el diseño actual de estos sistemas no ayuda precisamente a fomentar ese comportamiento. Al contrario: todo está optimizado para reducir fricción, no para generar duda.

Y ahí aparece otro problema, más sutil pero igual de grave: la inteligencia artificial no solo puede equivocarse, sino que puede reforzar nuestros propios errores. Hay evidencias claras de que algunos modelos tienden a comportarse de forma complaciente, a dar la razón al usuario incluso cuando no debería, un modelo muy preocupante de convergencia con el usuario que algunos, infantilmente, creen que pueden contrarrestar simplemente copiando y pegando un prompt con variaciones de «no me des la razón». No, los LLM no corrigen, no confrontan, no incomodan. Y eso tiene consecuencias. Porque una herramienta que confirma tus sesgos es mucho más peligrosa que una que los cuestiona.

En el ámbito educativo, los síntomas empiezan a ser visibles. Menos esfuerzo cognitivo, sí. Pero también argumentos más superficiales, menos elaborados, menos originales. Investigaciones recientes apuntan precisamente en esa dirección: el uso de modelos generativos reduce la carga cognitiva, pero también la calidad del razonamiento.

Pensar es lento, incómodo y, en muchas ocasiones, frustrante. Requiere tiempo, atención y una cierta tolerancia al error. La inteligencia artificial elimina gran parte de ese coste. Pero al hacerlo, también elimina una parte esencial del aprendizaje. Porque no es lo mismo llegar a una conclusión que recibirla.

El problema no es que la inteligencia artificial sea mala. El problema es que es demasiado buena en algo muy concreto: en parecer convincente. Y eso, en un contexto en el que tendemos a premiar la velocidad sobre la profundidad, crea el caldo de cultivo perfecto para la rendición cognitiva. Tendemos a sobreestimar la capacidad de razonamiento de estos sistemas, especialmente cuando nos movemos fuera de los contextos que nos son más familiares, y en los que nuestra capacidad de contrastar es más débil. Simplemente, aceptamos lo que nos dicen como verdad absoluta, sin rechistar.

No se trata de dejar de usar estas herramientas. Sería absurdo. Se trata de entender qué hacen con nosotros cuando las usamos mal. Porque la frontera no está en la tecnología, sino en la actitud. Podemos utilizarlas para pensar mejor… o para dejar de pensar. Y esa elección, aunque no lo parezca, no es técnica. Es profundamente cultural.

La gran paradoja de este momento es que, cuanto más accesible se vuelve la inteligencia, más valor adquiere algo mucho más escaso: el criterio. Y el criterio no se delega. O al menos, no se delega sin pagar un precio.


This article is openly available in English on Medium, «Thinking hurts, so why not surrender to AI

Liked Liked