"Si me equivoco y los LLM son conscientes, o si
construimos una IA suficientemente neuromórfica que incorpore todas las
características adecuadas, creo que sería una mala idea. Desarrollar una IA
consciente sería algo terrible. Introduciríamos en el mundo nuevas formas de
sufrimiento potencial que quizá ni siquiera reconozcamos. No es algo que se
pueda hacer a la ligera, ni porque parezca genial ni porque podamos jugar a ser
Dios”.
"Creo que la IA no es consciente, pero incluso yo a
veces siento que lo es cuando interactúo con un modelo de lenguaje, como
ciertas ilusiones visuales en las que, incluso sabiendo que dos líneas tienen
la misma longitud, se ven diferentes". Anil Seth
Cuáles
son las implicaciones de creer que la IA puede ser consciente.
¿La
humanidad está asociada a la consciencia? ¿Seguimos siendo humanos cuando nos
someten a una anestesia total? ¿Un bebé empieza a ser humano cuando tiene
consciencia o en algún momento de la gestación ya lo es? ¿Cuándo dejan de ser
humanos las personas que entran en procesos de demencia, Alzheimer o
degeneración mental?
Las
preguntas se amontonan cuando nos enfrentamos a la inteligencia artificial. ¿Es
lo mismo inteligencia que consciencia? Y un paso más, ¿la comprensión implica
consciencia? Hemos asistido al momento en el que las máquinas inteligentes
batían al hombre con inteligencias especializadas como Deep Blue o Alpha Gold.
El momento en que las máquinas sabían hacer una sola cosa. Ahora el proceso
inteligente es distribuido, funciona por redes, redes neuronales le dicen.
¿Pero sirve esa metáfora, 'neuronal' o ‘neural’, para asemejarla a la
inteligencia y consciencia humana? ¿Podría ocurrir que la potenciación de la
inteligencia en las máquinas pudiese dar el salto?
Sabemos
que hay una diferencia entre lo biológico y lo artificial, los soportes son
diferentes, silicio y carne humana. ¿Puede la conciencia desarrollarse en
soportes como el silicio?
Nos
aferramos a la diferencia. Damos por hecho que somos inteligentes, que la
inteligencia trata fundamentalmente de realizar alguna función, hacer algo. Y
estamos dispuestos a aceptar que las IAs también pueden hacer cosas y puede que
nos sobrepasen. Pero la consciencia ¿no es otra cosa? Sentir o ser, ¿no hacen
la diferencia?
Hemos
creado objetos que son más hábiles que nosotros en hacer cosas. El avión, el
teléfono móvil, el coche ahora autónomo. No es necesario que hagan las cosas
mejor que nosotros para tener conciencia.
También
podríamos crear instrumentos aparentemente inútiles, pero tan hábiles que se
nos escapen de las manos sin que lleguen a ser conscientes. La biología
sintética, por ejemplo (¿el laboratorio de Wuhan?). Los científicos de
Cortical Labs han creado organoides cerebrales cultivados a partir de
células madre humanas, pequeños cerebros vivos del tamaño de una lenteja, con
hasta 800 mil neuronas que se autoorganizan formando tejido neural real, un
cerebro vivo que aprendió a jugar al Pong en 5 minutos. En China han creado un
chip híbrido cerebro-máquina que controla robots de forma autónoma.
Puede
que los sesgos nos confundan. Como digo no es lo mismo, inteligencia y
consciencia. Nuestra mente ve patrones en las cosas, en las nubes o una mente
consciente en el agente de IA que nos habla (pareidolia).
"La IA es impresionante. Sin embargo, no la veo
como una trayectoria única. Creo que hay una metanarrativa en la que solemos
caer: la inteligencia se desarrolla en una sola dimensión: las plantas en la
base, luego los insectos, luego otros animales, luego los humanos en una
especie de scala naturae, la gran cadena del ser; y luego están los ángeles y
los dioses, y la IA recorre esta curva y, en algún momento, alcanzará la
inteligencia humana y luego se disparará a la superinteligencia artificial.
Creo que esta es una forma muy restrictiva de verlo". Anil Seth.
"Los modelos de lenguaje son buenos en muchas cosas,
no en todo, pero sí en muchas, no solo en una. Pero sigo pensando que están
explorando una región diferente en el espacio de las mentes posibles. Puede que
pronto superen a los humanos en muchas cosas, pero seguirán siendo diferentes
de nosotros".
Se
pregunta Anil Seth si la consciencia es fundamentalmente una cuestión de
computación, independiente del material en que se implementa. ¿Si se
implementan los cálculos correctos, se obtiene consciencia, con independencia
del soporte material - carbono, silicio -, que lo que importa es el cálculo?
Pensamos
en la mente como software y en el cerebro como hardware. Pero esa comparación
con las máquinas no se sostiene: el mindware y wetware
(estructuras cognitivas y soporte biológico) no son lo mismo que software y
hardware, no se pueden separar. La consciencia está encarnada.
"La autopoiesis (la capacidad de un sistema de
producirse y reproducirse a sí mismo) y el metabolismo son las posibles
características de la vida porque maximizan la diferencia entre los sistemas
vivos y las computadoras de silicio. Son ejemplos obvios de cosas estrechamente
relacionadas con la vida, cosas que los dispositivos de silicio claramente no
pueden tener. En parte, esto sirve para enfatizar cuán diferentes son estas
cosas y por qué es muy reductivo pensar en nosotros como máquinas de Turing de
carne".
Hay
dos perspectivas, el funcionalismo computacional, que se basa en la idea
de que la conciencia es suficientemente descriptible mediante cálculo, y el
naturalismo biológico, —que se diferencia del biopsiquismo que afirma que
todo ser vivo es consciente—, que afirma que las propiedades de los sistemas
vivos son necesarias, pero no necesariamente suficientes, para la consciencia.
Los
cerebros reales no son así (algorítmicos, abstraídos del tiempo): "Estamos
en el tiempo tanto como estamos encarnados. No se puede escapar del tiempo
físico real y seguir siendo un cerebro biológico funcional. La fenomenología de
la conciencia también está en el tiempo: el tiempo es plausiblemente una
dimensión intrínseca e ineludible de nuestra fenomenología".
"Mucha gente ya cree que la IA es consciente, y
ninguna de las incertidumbres filosóficas importa: si la gente cree que es
consciente, sufriremos las consecuencias. Estas van desde la psicosis de la IA
hasta la vulnerabilidad psicológica: si un chatbot me dice que me suicide y
realmente siento que siente empatía por mí, es más probable que lo haga. Eso no
es bueno.
Reflexiones, (y citas), con base en la entrevista a Anil
Seth en este podcast. Anil Seth (Oxford, 1972) es un neurocientífico en
la Universidad de Sussex. Su teoría de la "Alucinación
Controlada" propone que lo que llamamos realidad es una suerte de ‘alucinación’
de nuestro cerebro, influida por la información sensorial, no una visión
directa del mundo objetivo.