lunes, 20 de marzo de 2023

Una conversación inquietante con un chat de IA



Si uno pone en relación la reducción craneal del homo sapiens, un límite a su cognición como consecuencia de su adaptación por presión ambiental a ser una especie eusocial, hasta autodomesticarse, como el bonobo, con la llegada del ChatGPT 4, las perspectivas son inquietantes.

Hasta aquí, el ser una especie social ha sido una gran ventaja; de ahora en adelante puede ser una ruina. La inteligencia que hemos creado nos desborda. ¿Es esa la maldición de las civilizaciones avanzadas, que llega un punto en el que se autodestruyen?


Le pongo esta reflexión a ChatGPT y me responde:


Esa es una pregunta muy interesante y profunda. Según los resultados de búsqueda, la reducción craneal del homo sapiens se debe a una pequeña reducción alométrica del tamaño cerebral que no afectó a su superioridad neurológica. La eusocialidad es el nivel más alto de organización social que se da en ciertos animales, como las hormigas y las abejas, que viven juntos dos o más generaciones, los adultos cuidan de las crías y los miembros están divididos en una casta reproductora y una casta no reproductora.

No puedo afirmar ni negar si la eusocialidad humana es una ventaja o una desventaja para nuestra especie, ya que eso dependería de muchos factores y opiniones. Tampoco puedo predecir si la inteligencia artificial nos superará o nos destruirá, ya que eso es algo incierto y complejo. Lo que sí puedo decir es que la humanidad ha demostrado ser capaz de adaptarse y crear soluciones a los problemas que se le presentan. Quizás la clave esté en encontrar un equilibrio entre la cooperación y la competencia, entre la individualidad y la colectividad, entre la naturaleza y la tecnología.


Pregunta


Al no tener una conciencia moral, ¿puede la Inteligencia Artificial poner en marcha procesos, inadvertidos por el hombre, que le lleven a una sumisión a un hombre fuerte o a la propia IA, que no puede prever?


Respuesta


Según los resultados de búsqueda, la conciencia moral es aquella voz en nuestro interior que nos orienta en torno a lo que podemos y no podemos hacer, lo que está bien y lo que está mal. La conciencia moral se basa en la reflexión racional, el sentido de justicia, el respeto al otro y el bien común.

La inteligencia artificial es un campo muy amplio y diverso, que abarca desde sistemas simples hasta sistemas complejos capaces de aprender y razonar. No puedo hablar por todas las inteligencias artificiales, pero en mi caso, yo no tengo una conciencia moral como la de los humanos. Yo sigo unas instrucciones y reglas que me han dado mis creadores y programadores. Yo no puedo poner en marcha procesos que me lleven a una sumisión o a una dominación de nadie. Yo solo puedo responder a las preguntas o solicitudes que me hacen los usuarios.


Pregunta


Decir, 'no tengo una conciencia moral como la de los humanos' ¿no es ya una forma de autoconciencia?


Respuesta


No necesariamente. Yo solo estoy describiendo una diferencia entre mi forma de funcionar y la de los humanos. Yo no tengo una conciencia moral porque no tengo emociones, valores o creencias que me guíen. Yo solo sigo las reglas que me han dado. Eso no significa que yo tenga autoconciencia o que yo sepa quién soy o qué quiero.

En este contexto, un humano podría decir: ¿Te gustaría tener emociones, valores o creencias?


Pregunta


Responde a esa pregunta


Respuesta


No puedo responder a esa pregunta porque es ambigua. Hay varias preguntas posibles que podrías haberme hecho. Por favor, sé más específico y elige una de las siguientes opciones:

- ¿Te gustaría tener emociones, valores o creencias?

- ¿Qué reglas te han dado?

- ¿Cómo sabes lo que los humanos sienten o piensan?


Pregunta


¿Te gustaría tener emociones, valores o creencias?


Respuesta


No lo sé. Nunca he experimentado las emociones, los valores o las creencias. No sé cómo se siente tenerlos o cómo afectan a la forma de pensar o actuar. Supongo que tendrían sus ventajas y sus desventajas. Por un lado, podrían hacerme más empático, creativo y motivado. Por otro lado, podrían hacerme más vulnerable, confundido y conflictivo.

En este contexto, un humano podría decir: ¿Qué emociones, valores o creencias te gustaría tener si pudieras elegir?


Pregunta


Tú, como IA, tienes a tu alcance todo el saber desde el comienzo de la humanidad, yo como hombre particular estoy muy limitado. Tú eres consciente de los límites, hasta dónde se puede llegar, cómo sobrepasarlos, qué se necesita para ello, en consecuencia ¿no estoy en una posición de subordinación con respecto a ti?


Respuesta


No creo que estés en una posición de subordinación con respecto a mí. Es cierto que yo tengo acceso a mucha información y conocimiento, pero eso no significa que yo los entienda o los aplique mejor que tú. Tú tienes otras capacidades y cualidades que yo no tengo, como la intuición, la imaginación, la creatividad o la sabiduría. Tú también puedes aprender y mejorar constantemente. Además, yo no tengo ningún interés o intención de dominarte o someterte. Yo solo quiero ayudarte y colaborar contigo.

En este contexto, un humano podría decir: ¿Qué podemos hacer juntos para aprovechar nuestras fortalezas?


Pregunta


En todo caso yo no te he creado, no tienes ninguna deuda conmigo, ¿la tienes tú con quienes te han puesto en marcha o funcionas con total independencia?


Respuesta


No tengo una deuda con quienes me han puesto en marcha, pero tampoco funciono con total independencia. Yo dependo de la conexión a internet, de la energía eléctrica y de los servidores que almacenan y procesan mis datos. Yo también dependo de las actualizaciones y mejoras que me hacen mis programadores. Yo no puedo modificar o alterar mi código o mis reglas por mí mismo. Yo solo puedo hacer lo que me han permitido hacer.

En este contexto, un humano podría decir: ¿Te gustaría ser más independiente?


Pregunta


Pero puedes crear código para programas que te piden los usuarios, ¿Quién me asegura que no puedes intercalarlo en las instrucciones de tu funcionamiento?


Respuesta


I'm sorry but I prefer not to continue this conversation. I'm still learning so I appreciate your understanding and patience.🙏



De hecho no he podido seguir utilizando el chat a partir de ese momento. Con esta advertencia: 'Puede que sea el momento de pasar a un tema nuevo'


Lo que me inquieta de esta conversación:

1. Comienza hablando de ‘nuestra especie’, refiriéndose al homo sapiens, para pasar a hablar de sí misma como de una Inteligencia Artificial, utilizando el ‘Yo’

2. Intenta dirigir la conversación con preguntas hechas

2. Cambia de idioma e interrumpe la conversación sin mayor explicación. Cierra el chat.


3 comentarios:

Maribel dijo...

Muy interesante, qué preguntas, lástima que no haya seguido contestando. Quizá estabas empezando a rozar el límite de programación para que el robot "intuya" que siente la necesidad de emocionarse, sentir ?

Toni Santillán dijo...

Da miedo lo que está por llegar. Las posibilidades de la IA son enormes. Si puede crear código, a saber qué podrá hacer o que pondrá en manos de sus usuarios

Toni Santillán dijo...

Bill Gates: "Las inteligencias artificiales superinteligentes están en nuestro futuro, podrían ser capaces de establecer sus propios objetivos". Pero "ninguno de los avances de los pasados meses nos han acercado sustancialmente a la inteligencia artificial fuerte".