El
gran asunto de la Inteligencia Artificial (IA) es cuándo llegará a
convertirse en general (IAG), es decir, cuándo será semejante a una
inteligencia humana, y, tras ello, si la sobrepasará para ser
sobrehumana (IAS). Que la capacidad de computación de los
ordenadores no está lejos de la humana pocos lo discuten, de hecho
en muchos campos especializados así sucede ya. En juegos donde es
importante anticipar muchas jugadas, con una gran
capacidad de computación para proponer proponer movimientos nuevos,
como el ajedrez o el Go, las máquinas ya han vencido a los campeones
humanos. Máquinas que, un paso más allá de la computación,
aprenden
por si mismas gracias a que están organizadas en redes
neuronales, imitando al cerebro humano. La cuestión es si serán
capaces de hacer las otras cosas que la mente humana hace, si además
de reaccionar de forma eficiente ante problemas nuevos mediante
trucos de programación, de planificar acciones, simplificar o
representar el conocimiento, podrán replicar el lenguaje humano,
entendiéndolo y produciéndolo, además de traducir de otro idioma,
resumir libros, responder a preguntas difíciles, crear ideas y
artefactos nuevos, como una novela, una serie de tv, arte (ya hay
patentes de la propia IA) y de tener emociones de modo que puedan
interactuar con humanos, cuidando a ancianos o discapacitados o tener
sexo.
Hay
un montón de preguntas por responder. ¿Podría surgir una IAG del
puro azar, de un sistema no secuencial, independientemente de la
neuroquímica? ¿Podría la IAG autorganizarse como hacen los seres
vivos, replicarse y mejorarse, es decir, podría la IA ser una
inteligencia de verdad? ¿Cuándo sabremos que eso ha sucedido, que
una IA nos ha superado? Sobre este asunto, la mayor parte de los
científicos duda o simplemente dice no saber nada. Alan Turing propuso un
test para reconocerla, si en el 30% del tiempo de una interactuación entre
un humano y una máquina, durante cinco minutos, no se la distingue
de una inteligencia humana entonces es que es una IAG.
Sobre
estos asuntos hablan dos libros recientes: Inteligencia Artificial
de Margaret Boden y Vida 3.0 de Max Tegmark. El primero es muy
técnico, hace la historia y progreso de la IA y presenta los
principales problemas a los que nos enfrentamos. En general echa el
freno en cuanto a la posibilidad de una IAS (inteligencia artificial
sobrehumana). El segundo, pisa el acelerador y, aunque resume las
dudas existentes, tiende a creer que en algún momento eso sucederá
y advierte de los peligros. El libro de Max Tegmark es apasionante,
aborda un montón de asuntos, desde qué es la inteligencia, sus
grados de complejidad, a si puede existir una inteligencia
extraterrestre o, el sujeto de fondo del libro, si las máquinas la
pueden tener, si se acercarán a la nuestra, si nos superarán
(singularidad) y, en tal caso, que supondríamos como especie para
ellas, si la IAS puede tener objetivos propios y cómo podrían
evolucionar las civilizaciones superinteligentes en función de la
energía, para acabar con el tema de la consciencia.
No hay comentarios:
Publicar un comentario