martes, 3 de marzo de 2026

La ciencia de la conciencia

 

 


 

"Si me equivoco y los LLM son conscientes, o si construimos una IA suficientemente neuromórfica que incorpore todas las características adecuadas, creo que sería una mala idea. Desarrollar una IA consciente sería algo terrible. Introduciríamos en el mundo nuevas formas de sufrimiento potencial que quizá ni siquiera reconozcamos. No es algo que se pueda hacer a la ligera, ni porque parezca genial ni porque podamos jugar a ser Dios”.

 

"Creo que la IA no es consciente, pero incluso yo a veces siento que lo es cuando interactúo con un modelo de lenguaje, como ciertas ilusiones visuales en las que, incluso sabiendo que dos líneas tienen la misma longitud, se ven diferentes". Anil Seth

 

Cuáles son las implicaciones de creer que la IA puede ser consciente.

 

¿La humanidad está asociada a la consciencia? ¿Seguimos siendo humanos cuando nos someten a una anestesia total? ¿Un bebé empieza a ser humano cuando tiene consciencia o en algún momento de la gestación ya lo es? ¿Cuándo dejan de ser humanos las personas que entran en procesos de demencia, Alzheimer o degeneración mental? 

 

Las preguntas se amontonan cuando nos enfrentamos a la inteligencia artificial. ¿Es lo mismo inteligencia que consciencia? Y un paso más, ¿la comprensión implica consciencia? Hemos asistido al momento en el que las máquinas inteligentes batían al hombre con inteligencias especializadas como Deep Blue o Alpha Gold. El momento en que las máquinas sabían hacer una sola cosa. Ahora el proceso inteligente es distribuido, funciona por redes, redes neuronales le dicen. ¿Pero sirve esa metáfora, 'neuronal' o ‘neural’, para asemejarla a la inteligencia y consciencia humana? ¿Podría ocurrir que la potenciación de la inteligencia en las máquinas pudiese dar el salto?

 

Sabemos que hay una diferencia entre lo biológico y lo artificial, los soportes son diferentes, silicio y carne humana. ¿Puede la conciencia desarrollarse en soportes como el silicio?

 

Nos aferramos a la diferencia. Damos por hecho que somos inteligentes, que la inteligencia trata fundamentalmente de realizar alguna función, hacer algo. Y estamos dispuestos a aceptar que las IAs también pueden hacer cosas y puede que nos sobrepasen. Pero la consciencia ¿no es otra cosa? Sentir o ser, ¿no hacen la diferencia?

 

Hemos creado objetos que son más hábiles que nosotros en hacer cosas. El avión, el teléfono móvil, el coche ahora autónomo. No es necesario que hagan las cosas mejor que nosotros para tener conciencia.

 

También podríamos crear instrumentos aparentemente inútiles, pero tan hábiles que se nos escapen de las manos sin que lleguen a ser conscientes. La biología sintética, por ejemplo (¿el laboratorio de Wuhan?).  Los científicos de Cortical Labs han creado organoides cerebrales cultivados a partir de células madre humanas, pequeños cerebros vivos del tamaño de una lenteja, con hasta 800 mil neuronas que se autoorganizan formando tejido neural real, un cerebro vivo que aprendió a jugar al Pong en 5 minutos. En China han creado un chip híbrido cerebro-máquina que controla robots de forma autónoma.

 

Puede que los sesgos nos confundan. Como digo no es lo mismo, inteligencia y consciencia. Nuestra mente ve patrones en las cosas, en las nubes o una mente consciente en el agente de IA que nos habla (pareidolia).

 

"La IA es impresionante. Sin embargo, no la veo como una trayectoria única. Creo que hay una metanarrativa en la que solemos caer: la inteligencia se desarrolla en una sola dimensión: las plantas en la base, luego los insectos, luego otros animales, luego los humanos en una especie de scala naturae, la gran cadena del ser; y luego están los ángeles y los dioses, y la IA recorre esta curva y, en algún momento, alcanzará la inteligencia humana y luego se disparará a la superinteligencia artificial. Creo que esta es una forma muy restrictiva de verlo". Anil Seth.

 

"Los modelos de lenguaje son buenos en muchas cosas, no en todo, pero sí en muchas, no solo en una. Pero sigo pensando que están explorando una región diferente en el espacio de las mentes posibles. Puede que pronto superen a los humanos en muchas cosas, pero seguirán siendo diferentes de nosotros".

 

Se pregunta Anil Seth si la consciencia es fundamentalmente una cuestión de computación, independiente del material en que se implementa. ¿Si se implementan los cálculos correctos, se obtiene consciencia, con independencia del soporte material - carbono, silicio -, que lo que importa es el cálculo? 

 

Pensamos en la mente como software y en el cerebro como hardware. Pero esa comparación con las máquinas no se sostiene: el mindware y wetware (estructuras cognitivas y soporte biológico) no son lo mismo que software y hardware, no se pueden separar. La consciencia está encarnada. 

 

"La autopoiesis (la capacidad de un sistema de producirse y reproducirse a sí mismo) y el metabolismo son las posibles características de la vida porque maximizan la diferencia entre los sistemas vivos y las computadoras de silicio. Son ejemplos obvios de cosas estrechamente relacionadas con la vida, cosas que los dispositivos de silicio claramente no pueden tener. En parte, esto sirve para enfatizar cuán diferentes son estas cosas y por qué es muy reductivo pensar en nosotros como máquinas de Turing de carne".

 

Hay dos perspectivas, el funcionalismo computacional, que se basa en la idea de que la conciencia es suficientemente descriptible mediante cálculo, y el naturalismo biológico, —que se diferencia del biopsiquismo que afirma que todo ser vivo es consciente—, que afirma que las propiedades de los sistemas vivos son necesarias, pero no necesariamente suficientes, para la consciencia.

 

Los cerebros reales no son así (algorítmicos, abstraídos del tiempo): "Estamos en el tiempo tanto como estamos encarnados. No se puede escapar del tiempo físico real y seguir siendo un cerebro biológico funcional. La fenomenología de la conciencia también está en el tiempo: el tiempo es plausiblemente una dimensión intrínseca e ineludible de nuestra fenomenología".

 

"Mucha gente ya cree que la IA es consciente, y ninguna de las incertidumbres filosóficas importa: si la gente cree que es consciente, sufriremos las consecuencias. Estas van desde la psicosis de la IA hasta la vulnerabilidad psicológica: si un chatbot me dice que me suicide y realmente siento que siente empatía por mí, es más probable que lo haga. Eso no es bueno.

 

Reflexiones, (y citas), con base en la entrevista a Anil Seth en este podcast. Anil Seth (Oxford, 1972) es un neurocientífico en la Universidad de Sussex. Su teoría de la "Alucinación Controlada" propone que lo que llamamos realidad es una suerte de ‘alucinación’ de nuestro cerebro, influida por la información sensorial, no una visión directa del mundo objetivo.


No hay comentarios: