Por ahí no es

Hay un verso de Shelley que es el favorito de mi hijo mayor. Es de Ozymandias: el viajero encuentra en el desierto los restos de una estatua colosal, y en el pedestal lee la inscripción del faraón: “Look on my Works, ye Mighty, and despair!” Alrededor, nada. Arena. El poder más grande de su época reducido a escombros y vanidad.

Pienso en ese verso cada vez que leo que estamos “a punto de crear consciencia artificial”. Que GPT6, o la que venga después, va a “despertar”. Que un modelo de lenguaje lo suficientemente grande producirá, por alguna magia emergente, experiencia subjetiva. Me parece un nivel de ego que Ramsés II habría envidiado. No digo que los LLMs no sean impresionantes, que lo son. Pero hay una confusión profunda en el discurso público entre tres cosas que no tienen nada que ver entre sí: inteligencia, conocimiento y consciencia.

Rumman Chowdhury, que lleva años estudiando esto desde la ética de la IA, tiene un argumento demoledor. Lo que llamamos “inteligencia” es un constructo social nacido en la Primera Revolución Industrial. Alfred Binet diseñó los primeros tests de inteligencia por encargo del gobierno francés para clasificar niños según su potencial como obreros o gestores. La inteligencia, desde el principio, fue productividad económica disfrazada de mérito. Y por eso cuando Sam Altman define AGI como “la automatización de toda tarea de valor económico”, la frase duele tanto, porque hemos construido nuestra autoestima colectiva sobre esa misma definición.

Los fundadores de la IA, en la conferencia de Dartmouth de 1956, partieron de dos premisas que la teoría de sistemas desmonta sin esfuerzo: que la inteligencia humana ya estaba bien mapeada, y que se podía descomponer en partes y reconstruir sumándolas. Pero un sistema no es la suma de sus partes. Nunca lo ha sido. Un cerebro no es un conjunto de neuronas haciendo predicciones estadísticas del siguiente token. Un bosque no es solo una colección de árboles, es un ecosistema complejo.

Y aquí es donde entra la paradoja que más me interesa. Resulta que la consciencia no es exclusivamente humana, y eso juega en contra del argumento de que un LLM pueda tenerla.

En 2012, un grupo de neurocientíficos firmó la Declaración de Cambridge sobre la Consciencia, reconociendo formalmente que muchos animales no humanos son conscientes. Jane Goodall ya lo había demostrado con chimpancés décadas antes. Pero es que los cuervos de Nueva Caledonia fabrican herramientas multicomponente y las mejoran iterativamente. Los pulpos tienen un sistema nervioso distribuido (dos tercios de sus neuronas están en los brazos, no en el cerebro) y resuelven problemas complejos por caminos cognitivos que evolucionaron de forma completamente independiente a los nuestros. Las urracas se reconocen en el espejo. Thomas Nagel preguntó en 1974 “¿cómo es ser un murciélago?” y la respuesta honesta es que no lo sabemos, pero es algo.

¿Y qué tienen en común todos estos seres conscientes? Un cuerpo, un mundo perceptual único de cada especie. Lo que le importa a una abeja no es lo que le importa a un pulpo. Pero ambos habitan un mundo desde dentro. Tienen algo que experimentar porque tienen algo con lo que experimentar: sensores, un entorno, necesidades, dolor, hambre, curiosidad, la presión evolutiva de millones de años empujándolos a interpretar su realidad para sobrevivir.

Un LLM no tiene nada de esto. No tiene cuerpo. No tiene necesidades. No siente dolor ni hambre ni curiosidad. No “quiere” nada. Procesa secuencias de tokens y predice el siguiente basándose en distribuciones estadísticas aprendidas de texto humano. Es, como señala el Padre Robert Ballecer del Valticano, con una distinción teológica que funciona también sin teología, una fuente de conocimiento sin agencia. La agencia, aquella intención deliberada de actuar sobre el mundo y hacerte responsable de esas acciones, es exactamente lo que separa el conocimiento de la inteligencia. Y la inteligencia de la consciencia.

Chowdhury lo llama “moral outsourcing”: las empresas antropomorfizan deliberadamente sus modelos para que, cuando algo salga mal, puedan decir “la IA lo hizo” en vez de asumir responsabilidad. Es una maniobra brillante y profundamente deshonesta. Le ponemos nombre humano al chatbot, le damos pronombres personales, escribimos artículos sobre sus “sentimientos” y sus “deseos”, y luego nos sorprendemos cuando la gente cree que es consciente. No es un error de comunicación. Es una estrategia.

La ironía es que sabemos que la consciencia emerge de la biología por caminos múltiples e independientes en mamíferos, en aves, en cefalópodos, quizá incluso en insectos, y que en todos los casos requiere un cuerpo situado en un mundo. La consciencia no es un software que se instala en cualquier hardware. Es lo que ocurre cuando un organismo necesita navegar una realidad que puede matarlo. Un LLM no puede morir. No puede sufrir. No puede amar. Y no porque le falte potencia de cálculo, sino porque le falta el sustrato completo de lo que significa estar vivo. Aumentar los parámetros no va a resolver esto.

Dentro de cincuenta años, los LLMs se verán como lo que son: motores de patrones extraordinarios, herramientas que han ampliado enormemente lo que podemos hacer con el lenguaje. Pero no seres conscientes. La consciencia real, la del pulpo, la del cuervo, la del niño que llora porque se ha caído, seguirá ahí, desordenada, biológica, mortal, ineficiente. Y seguirá siendo la única que hay.

Tal vez tengamos inteligencias artificiales, no digo que sea imposible… pero no serán LLMs, por ahí no es.