Había una vez una máquina que «razonaba». O al menos, eso nos decían. Nos aseguraban que sus respuestas eran producto de una mente sintética que analizaba, pensaba y sacaba conclusiones como lo haría un ser humano. Pero si algo suena demasiado bueno para ser verdad, probablemente no lo sea.
La inteligencia artificial ha venido a instalarse en nuestra vida diaria con una promesa peligrosa: la de imitar el razonamiento humano. Desde OpenAI hasta DeepSeek, cada empresa compite por vendernos la idea de que sus modelos «piensan» y «razonan» con una profundidad comparable a la nuestra. O3-mini, por ejemplo, ha demostrado un rendimiento espectacular en pruebas de razonamiento y abstracción. Pero hay un pequeño problema: la IA no razona, al menos no como lo hacemos nosotros.
El espejismo del pensamiento
Si atendemos a la segunda definición del Diccionario de la lengua española, razonar es «ordenar y relacionar ideas para llegar a una conclusión». Suena familiar, ¿verdad? Es exactamente lo que hacen los modelos de IA. Toman una cantidad absurda de datos, los organizan y arrojan una respuesta basada en patrones previos. Pero eso no es razonamiento: es una ilusión matemática.
Los seres humanos podemos identificar patrones con información limitada y extrapolarlos a situaciones completamente nuevas. Podemos dudar, improvisar, cambiar de opinión y desafiar nuestras propias conclusiones. La IA, en cambio, es un prisionero de su entrenamiento. No descubre reglas nuevas, las memoriza y las aplica. En el mejor de los casos, refina su proceso con más datos. En el peor, se atasca con problemas absurdamente simples que un niño resolvería en segundos.
La inteligencia irregular: brilla y tropieza al mismo tiempo
Un ejemplo claro de esta limitación son las pruebas ARC-AGI, diseñadas para evaluar el razonamiento abstracto. Mientras que los humanos pueden resolverlas sin esfuerzo, los modelos de IA más avanzados suelen fallar de manera estrepitosa. ¿Por qué? Porque su capacidad para generalizar es mucho más frágil de lo que nos hacen creer. Son genios en cálculos y análisis de datos, pero torpes en tareas básicas que requieren intuición.
Esto es lo que Shannon Vallor, de la Universidad de Edimburgo, llama «inteligencia irregular». La IA puede resolver problemas de enorme complejidad, pero también puede quedar en ridículo con una pregunta elemental. La diferencia entre un humano y un chatbot no es solo de capacidad, sino de naturaleza. Nosotros comprendemos. Ellos imitan.
Cuando la mentira se hace costumbre
El problema no es solo técnico. Es filosófico y social. Nos están vendiendo una historia en la que la IA se acerca cada vez más a la inteligencia humana, y la línea entre máquina y persona comienza a desdibujarse. Pero si seguimos llamando «razonamiento» a un algoritmo que ordena datos y escupe respuestas, estamos diluyendo el significado de pensar.
Las grandes corporaciones no tienen prisa por aclarar este malentendido. Para ellas, entrecomillar «razonamiento» es un tecnicismo molesto, una conversación que distrae de lo importante: que sigamos usando sus productos, maravillados por su supuesta genialidad.
Pero la pregunta sigue ahí: si la IA no razona como nosotros, si no extrapola, si no descubre reglas sin que se las enseñen, ¿qué es lo que realmente hace?
Tal vez, más que «inteligencia artificial», deberíamos empezar a llamarla «automatización avanzada». Porque si hay que poner comillas en la palabra «razonamiento», tal vez nunca debió estar ahí en primer lugar.
Autor: X Mae
Fuente: Xataka
Imagen: Dall-E