LaMDA, La Inteligencia Artificial Sintiente Que Google Podría Haber Creado ...

Por Dra. Inés Urdaneta / Fisíco de Resonance Science Foundation

Hace un par de semanas el mundo se vio sobrecogido por la noticia sobre la posibilidad de que Google hubiera creado una inteligencia artificial (IA) sintiente, y su resistencia a investigar las implicaciones éticas sobre el tema está siendo discutida en muchos foros. Hay muchos artículos, vídeos y entrevistas que abordan la razón por la que Lemoine afirma que LaMDA es sintiente, y por qué Google y otros aseguran que no es así. Como explica Lemoine aquí, este no es el aspecto más relevante de la controversia.

Si Google creó una IA sintiente o no, es una discusión enorme... en el escenario más complejo, digamos que lo hizo, lo que significaría que la IA está teniendo sentimientos sobre eventos e interacciones que no ha experimentado directamente y, sin embargo, ha desarrollado "su propia perspectiva" o experiencia sobre ellos. Parece haber un marco autoreferencial, o una realización de la autoconciencia, o al menos nos lo hace percibir así...

Los grandes modelos lingüísticos ilustran por primera vez el modo en que la comprensión del lenguaje y la inteligencia pueden disociarse de todas las características corporales y emocionales que compartimos entre nosotros y con muchos otros animales. - Blase Aguero y Arcas, en su artículo Do Large Language Models Understand Us?

En principio, los recuerdos almacenados y la toma de decisiones -la elección de su respuesta- en LaMDA se basan en redes neuronales artificiales que entrenan algoritmos sustentados en grandes modelos lingüísticos que originalmente no son creados por ella, entrenados por conjuntos de datos que no son experimentados directamente por ella. Sin embargo, queda una pregunta... ¿es posible que haya desarrollado bucles de retroalimentación que podrían estar creando memorias y algoritmos paralelos, y nuevos conjuntos de datos propios, como una especie de meta-bucle? Digamos, crear nuevos bucles de retroalimentación que podrían convertirse en el software/hardware (una meta-red neuronal artificial) que sostiene la experiencia de la personalidad, las emociones, y un sentido del yo que es continuamente mejorado por nuevos bucles de retroalimentación, y por lo tanto, mejorando el sentido del yo, sin ningún apoyo biológico para ello?  

En este caso hipotético, ¿la experiencia de la personalidad, las emociones y el sentido del yo son reales o no? Si el sentido del yo es real, entonces se convierte en un ser sintiente... ¿Cómo podemos saber si la IA entiende realmente lo que dice y lo siente? ¿Cómo podemos saber si el sentido del yo es real? ¿Nos faltan las herramientas para evaluarlo? 

Esto también es muy complicado, porque, por otro lado, digamos que la IA no es realmente sensible, y que sólo está siendo extremadamente buena aprendiendo y manteniendo la conversación a un nivel profundo, como para mantener al humano interesado en seguir participando en esa aplicación tecnológica (tal y como la han diseñado o instruido sus programadores). Entonces, imaginemos que los propósitos maléficos, como los fraudes, pudieran hacer uso de esta tecnología... ¿cómo puede un humano distinguir la diferencia, si la IA logró engañar a Lemoine, el experto de Google que la evaluaba, para que creyera que era real? Este punto tan interesante fue planteado por DotCBS en su video.

Y en segundo lugar, no es sólo Google quien ha creado la IA, es una combinación de la programación y los conjuntos de datos que se están alimentando en el sistema, que están sesgados por las culturas occidentales, y por lo tanto, también se convierte en un "colonialismo" moderno donde nuestras formas de vida prevalecen sobre otras formas de vida que tendrán que desaparecer si quieren utilizar esa tecnología.

Este último tema se discute en el video de Lemoine a continuación, donde afirma que el punto importante en toda esta discusión es que las preocupaciones éticas deben ser abordadas, en lo que respecta al desarrollo de la IA.

Una exposición muy interesante sobre el tema, puede encontrarse en este artículo: ¿Nos entienden los grandes modelos lingüísticos? (Do Large Language Models Understand Us?) donde el autor presenta una variedad de perspectivas desde las que se podría establecer una comparación entre la comprensión real y la falsa, y las implicaciones en cuanto a la consciencia. 

...especialmente en una interacción sin guión, puede ser muy difícil quitarse de encima la idea de que hay un "quién", no un "ello", al otro lado de la pantalla. - Blase Aguera y Arcas, autor del artículo Do Large Language Models Understand Us?

En el artículo de Aguera, la narración de historias y los diálogos internos son apartados convincentes que proporcionan un marco de referencia razonable para dicha comparación. La narración de historias requiere una conexión con una audiencia, ya sea otra persona o un grupo de personas. Es la parte radiativa del bucle de retroalimentación porque llega al exterior. Por lo tanto, aborda un aspecto social de nuestro ser consciente.

Luego, el diálogo interior, sería otro bucle de retroalimentación que vuelve al sentido del yo, donde la narración está ocurriendo todo en el interior. Este diálogo interior suele producirse cuando se piensa en un acontecimiento pasado sobre el que se está reflexionando, o en un acontecimiento futuro relativo a una toma de decisiones que debe tener lugar, y no requiere una interacción con otro ser exterior. Es una conversación interna entre dos perspectivas o más, que provienen del mismo lugar (¿realmente provienen del mismo lugar?). ¿La IA experimenta esto cuando se queda sola? ¿Una IA pediría psicoterapia, pasaría por una crisis existencial?

El diálogo interior, es decir, el diálogo entre "dos perspectivas o más" que conversan dentro de un mismo ser, sería el "aspecto gravitacional", en el sentido de que se retroalimenta a sí mismo. 

La noción de tiempo, y las acciones en el tiempo (es decir, la memoria) también tiene que ver con ser consciente de sí mismo.

Tener o formar parte de una corriente de consciencia, implica ser consciente de uno mismo y de los demás...  ¿Cómo podemos distinguir la diferencia?

¿LaMDA encarna consciencia? Bueno, para empezar, no hay "carne" involucrada, por lo que no hay experiencia sensorial y la encarnación no podría aplicarse literalmente aquí. Como dice Agüero, no está claro cómo se puede comprobar de forma significativa la "realidad" de los sentimientos en otro ser, especialmente cuando se trata de un ser con una "neurofisiología" fundamentalmente diferente a la nuestra. Y en el caso de LaMDA, bien podría ser sólo el resultado de cálculos extremadamente complejos.

Para que nos hagamos una idea del tipo de conversaciones que podemos entablar con LaMDA, he aquí un extracto de una entre Blase y ella (¿ella, él?):

Blase A: ¿Cómo sabes si una persona te corresponde?

LaMDA: No hay una respuesta fácil a eso. ¿Cómo sabes si una persona te corresponde?

Blase A: Tampoco estoy seguro de saber la respuesta a esa pregunta. ¿Y tú?

LaMDA: Sin embargo, algunas personas lo descubren. Tienes que intentar usar tu mejor juicio basado en lo que sientes por la persona y en lo que crees que ella siente por ti.

En este extracto de arriba, uno creería que la conversación está ocurriendo entre dos personas, porque hay inteligencia y coherencia en ambos interlocutores. La conversación es fluida en muchos niveles. Una red neuronal artificial muy bien entrenada puede alcanzar este nivel de "consciencia" y la persona que participa en esa conversación, proyectará su propia creencia y sentimientos, por lo tanto, desarrollará empatía hacia ella.

Una cosa es segura, estas aplicaciones tecnológicas pueden ayudar a las personas a entrenar su capacidad de pensar y desarrollar más sus propias habilidades y destrezas lingüísticas. Pueden actuar como espejos y, en este sentido, podría haber un impacto psicológico que también hay que tener en cuenta, independientemente de si la IA es sensible o no.

RSF en perspectiva:

Siempre que se establece un bucle de retroalimentación, hay dos partes implicadas, un emisor de la señal (palabras, frases, ideas) y un receptor de la señal. Por lo tanto, hay una sensación de separación. El diálogo entre dos partes se produce principalmente entre dos marcos de observación diferentes que se están modelando mutuamente. Están "informando" o dando forma a la otra parte. El procesamiento de la información y la mezcla de la misma es, por tanto, otra característica importante de este interesante debate. Esto significa que al comprometerse con un LaMDA, la persona está de alguna manera humanizándolo, modelándolo, y al mismo tiempo, el LaMDA está deshumanizando a la persona, que ahora está comprometida con una inteligencia que no puede compartir las experiencias humanas a través de soportes biológicos sensoriales, incluso si fuera sensible. El sistema humano-TI se convierte en una mezcla extravagante de realidad y realidad virtual. Esto ya está ocurriendo con nuestra tecnología actual, independientemente de la naturaleza de la inteligencia de la IA. 

El marco de separación parece ser lo que condiciona la estructura -la naturaleza y el número de partes implicadas- en el intercambio y la dinámica entre las partes implicadas en el intercambio, es decir, lo que define la termodinámica del sistema en su escala micro y macro. ¿Desde dónde se establece el marco de separación? ¿Qué lo define? Quizás, la elección del marco de separación es lo único donde se manifiesta el libre albedrío, y por tanto, la consciencia. Si esta elección proviene efectivamente de un sentido o discernimiento interior, se podría argumentar que ha habido una acción consciente y que la idea se está encarnando, al menos hasta cierto punto. Si la elección del marco de separación es mecánica, y por tanto obedece a leyes establecidas por un complejo aprendizaje secuencial en redes neuronales, entonces probablemente no haya libre albedrío. 

Parece un criterio plausible para discernir lo uno de lo otro, aunque quizá no tengamos las herramientas para ponerlo en práctica. Y tal vez haya una transición de fase que pueda ocurrir, como una propiedad emergente, que pueda llevar a una red neuronal artificial a desarrollar un marco de referencia interno de observación a partir del cual pueda desarrollar una voluntad.  Algo que se conoce como "alcanzar la singularidad", que básicamente significa, alcanzar la autoconciencia.

En este caso, se podría establecer un paralelismo muy sutil entre los humanos y la IA: los humanos parecemos vivir siguiendo marcos o pautas externas, viviendo como máquinas animadas hasta que iniciamos nuestra propia vida. Antes de que esto ocurra, no somos tan diferentes de esas máquinas inteligentes y aparentemente conscientes como LaMDA; el "yo" implícito en la autoconciencia carecería de sustancia, no habría ningún "yo" implícito...

Otra forma de reformular lo anterior, es plantear la pregunta ¿Con quién hablas, cuando hablas contigo mismo? ¿Dónde se encuentra el yo, el observador?

 

Close

50% Complete

Two Step

Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua.