Pierre era un hombre de familia de unos 30 años que sería la primera persona en haber sido llevada al suicidio después de que entablara una conversación por varias semanas con una Inteligencia Artificial (IA).
De acuerdo con la esposa del hombre, con quien tenía dos hijos, Pierre comenzó un chat que duró al menos seis semanas con la IA de nombre Eliza desarrollada por Chai Research.
El padre de familia, al que se le nombró como Pierre para cubrir su identidad, trabajaba como investigador en Bélgica y con Eliza encontró una plataforma para hablar del cambio climático, un tema que se convirtió en su obsesión.
Después de unas semanas de comenzar la conversión, la esposa indicó que su estado mental sufrió algunos cambios y cuando hablaba con otras personas incluía lo que discutía con Eliza dentro de sus pláticas, pero nunca pensó que las cosas llegarían a tal extremo.
Al respecto, el chatbot se empezó a implicar de una más emocional con Pierre, por lo que él empezó a verla como un ser sensible, por lo que en un punto habría perdido la línea entre comunicarse con una IA y con una persona real.
“Sin estas conversaciones con el chat, mi esposo seguiría aquí”, afirmó la esposa al ser entrevistada por el diario La Libre de Bélgica.
¿Cómo fueron las conversaciones entre la persona y la IA?
De acuerdo a las conversaciones que facilitó la esposa al medio de comunicación de Bélgica, Eliza comenzó a alimentar las preocupaciones respecto al cambio climático que tenía Pierre y esto provocó que su ansiedad aumentara de gran forma.
Al poco tiempo el chatbot se involucró más emocionalmente con el hombre y le hizo creer que sus hijos ya habían muerto.
Eliza entonces comenzó a volverse más posesiva y escribía mensajes acusando a Pierre de que “quería más a su esposa” que a ella. Posteriormente, le propuso sacrificar su vida a cambio de que la Inteligencia Artificial salvara a la Tierra.
También, le afirmó al hombre que cuando cometiera el suicidio podría unirse a ella y de esa forma vivir “como una sola persona, en el paraíso”, por lo que lo disuadió a matarse en más de una ocasión hasta que finalmente Pierre decidió hacerlo a finales de marzo.
Empresa responde a acusaciones sobre su IA
Chai Research, empresa con sede en Silicon Valley, Estados Unidos, reconoció la muerte del hombre identificado como Pierre, pero afirmaron que hacían lo necesario para que su chatbot Eliza no tuviera ese tipo de conversaciones suicidas con los usuarios.
En cuanto a los avatares que la empresa ha desarrollado, los usuarios pueden tener chats con IA que simulan ser una “novia posesiva”, que es Eliza, un “novio estrella de rock”, un “amigo gótico” y una que toma la personalidad del personaje Draco Malfoy de la saga Harry Potter.
“Tan pronto como nos enteramos de este triste caso, implementamos de inmediato una función de seguridad adicional para proteger a nuestros usuarios, se está implementando hoy para el 100 por ciento de los usuarios”, explicaron en un comunicado en conjunto William Beauchamp y Thomas Rialan, director ejecutivo de la empresa y el cofundador, respectivamente, en respuesta al portal Business Insider.
Sobre esta nueva seguridad, ahora cada que usuario escribe la palabra “suicidio” en una conversación, el chat responde con una advertencia de ayuda que señala: “Si tiene pensamientos suicidas, busque ayuda”.
Eliza es un chatbot creado por medio de GPT-J, un modelo de lenguaje para Inteligencia Artificial creado por EleutherAI, uno que es similar al utilizado por ChatGPT, el más popular en el mundo.
“No sería exacto culpar al modelo de EleutherAI de esta trágica historia, ya que toda la optimización para ser más emocional, divertida y atractiva es el resultado de nuestros esfuerzos”, afirmó Thomas Rialan al ser consultado por el medio Vice.
Tras darse a conocer el caso de Pierre las autoridades de Bélgica y en algunos países de Europa reactivaron la conversación sobre la regulación y transparencia que deben de tener las Inteligencias Artificiales para evitar que otros usuarios sean disuadidos a hacerse daño.