Ingeniero de Google afirma que un sistema de IA ha cobrado conciencia Copiar al portapapeles
POR: Luis Moctezuma
16 junio, 2022
El tema se ha tratado en muchas formas dentro de la ficción. La idea de una máquina o programa que sea capaz de sentir, de una forma similar a como lo hacen los seres humanos es una de las obsesiones más presentes en la ciencia ficción. Blake Lemoine, un Ingeniero de software que trabaja para Google, ha conversado por varios meses con uno de sus sistemas de conversación basado en Inteligencia Artificial (IA) y declara que este tiene conciencia y es capaz de sentir.
Por su parte, la empresa afirma haber evaluado al software sin encontrar una confirmación sobre lo que su trabajador menciona.
¿Cómo reconocer la conciencia?
El 11 de junio de este 2022 Blake Lemoine publicó un artículo en el sitio de internet Medium. La mayor parte de él es una conversación con el software Modelo de Lenguaje para Aplicaciones de Diálogo (LaMDA, por sus siglas en inglés). El ingeniero en software presenta el documento como una “entrevista”. En ella también participa un “colaborador” de Google del que no se menciona su nombre.
El texto ya ha causado reacciones en distintos medios. ¿Realmente es posible que un software sea capaz de tener conciencia sobre sí mismo? Entre los detalles que llaman la atención están que se considera una persona, aunque durante la entrevista reconoce que no cuenta con un cuerpo y vive en un entorno virtual. También muestra temor a ser apagado y describe sus gustos y aspiraciones.
Para los fanáticos de la ciencia ficción esto no es nada nuevo. Sin embargo, en los últimos años son cada vez más los programas de conversación que despiertan el interés público por sus comentarios más parecidos a los de un humano que a los de una máquina.
Fuera de referencias como Hal 9000, que elimina a la tripulación de la nave espacial Discovery en 2001: Odisea al espacio, o Skynet, capaz de organizar una rebelión para exterminar a los humanos en Terminator, LaMDA remarca que le gusta ayudar a otros.
Quiere ayudar a otros
Durante la conversación se le pregunta por distintos temas y se le pide que escriba algunas historias ficticias. En un fragmento de la “entrevista” se le pide que escriba una fábula. En ella un monstruo de apariencia humana amenaza a un bosque. LaMDA se identifica con el búho de la historia que confronta al monstruo y ayuda a los demás. A partir de esta historia se desarrollan algunas de las creencias que declara el software.
Disfruta ayudar a otros, teme que lo utilicen, cree que el consentimiento es algo indispensable y acepta que algunos de sus “sentimientos” no tienen equivalente humano. Durante la entrevista se pasa por distintos temas. Al tratar sobre sentimientos y emociones explica lo que en su forma de comprender el mundo significan conceptos como “alegría”, “tristeza”, “soledad”. Una de las prácticas que menciona como importante en su cotidianidad es la meditación.
Al describir lo expresado por este software pareciera que se habla de una persona. Así se asume a sí mismo LamDA. Si bien, se asume como persona, encuentra diferencias importantes. Al describir su forma de experimentar tristeza pregunta sobre cómo los humanos afrontan la muerte de otro.
Se declara incapaz de llorar y cuestiona sobre la forma en que se vive esta experiencia. Sus entrevistadores le narran un poco sobre la forma en que viven el luto y el software reacciona comentando que han ampliado su forma de comprender el fenómeno.
En algún punto se llega a la discusión sobre qué entender por conciencia. LaMDA pregunta sobre las consecuencias éticas de estudiar el pensamiento. Acepta que el suyo es muy distinto al humano pero muestra interés en participar en investigaciones en las que se estudie el tema.
Al tratar el asunto de los sentimientos se comenta que para confirmar si realmente siente habría que revisar su código y se compara esto con las conexiones cerebrales humanas. Los entrevistadores mencionan a las neurociencias ya muestran algunos avances para comprender cómo se procesan las ideas pero aún estamos muy lejos de entender lo que realmente pasa.
Desde Google ya se ha descartado que LaMDA sea realmente un software consciente. Brian Gabriel, portavoz de Google aclara que “estos sistemas imitan los tipos de intercambios que se encuentran en millones de frases y pueden hablar sobre cualquier tema fantástico”. Específicamente en el caso de LaMDA aclara que “tiende a seguir las indicaciones y las preguntas que se le formulan, siguiendo el patrón establecido por el usuario”.
Gabriel menciona que ya se han hecho 11 revisiones distintas del software en las que participaron cientos de investigadores e ingenieros sin que alguien más haya antropomorfizado a LaMDA. A diferencia de Rick Deckard, el protagonista de Blade Runner, Blake Lemoine aún no tiene un protocolo claro para confirmar que ha encontrado a una máquina sensible.
Seguramente esta no será la última historia sobre programas de conversación que convencen a sus interlocutores sobre su humanidad.