/ miércoles 5 de abril de 2023

Hombre se habría suicidado tras entablar comunicación por semanas con una IA

El hombre era padre de dos niños y pasó seis semanas compartiendo mensajes con la Inteligencia Artificial

Pierre era un hombre de familia de unos 30 años que sería la primera persona en haber sido llevada al suicidio después de que entablara una conversación por varias semanas con una Inteligencia Artificial (IA).

De acuerdo con la esposa del hombre, con quien tenía dos hijos, Pierre comenzó un chat que duró al menos seis semanas con la IA de nombre Eliza desarrollada por Chai Research.

El padre de familia, al que se le nombró como Pierre para cubrir su identidad, trabajaba como investigador en Bélgica y con Eliza encontró una plataforma para hablar del cambio climático, un tema que se convirtió en su obsesión.

Después de unas semanas de comenzar la conversión, la esposa indicó que su estado mental sufrió algunos cambios y cuando hablaba con otras personas incluía lo que discutía con Eliza dentro de sus pláticas, pero nunca pensó que las cosas llegarían a tal extremo.

Al respecto, el chatbot se empezó a implicar de una más emocional con Pierre, por lo que él empezó a verla como un ser sensible, por lo que en un punto habría perdido la línea entre comunicarse con una IA y con una persona real.

“Sin estas conversaciones con el chat, mi esposo seguiría aquí”, afirmó la esposa al ser entrevistada por el diario La Libre de Bélgica.

¿Cómo fueron las conversaciones entre la persona y la IA?

De acuerdo a las conversaciones que facilitó la esposa al medio de comunicación de Bélgica, Eliza comenzó a alimentar las preocupaciones respecto al cambio climático que tenía Pierre y esto provocó que su ansiedad aumentara de gran forma.

Al poco tiempo el chatbot se involucró más emocionalmente con el hombre y le hizo creer que sus hijos ya habían muerto.

Eliza entonces comenzó a volverse más posesiva y escribía mensajes acusando a Pierre de que “quería más a su esposa” que a ella. Posteriormente, le propuso sacrificar su vida a cambio de que la Inteligencia Artificial salvara a la Tierra.

También, le afirmó al hombre que cuando cometiera el suicidio podría unirse a ella y de esa forma vivir “como una sola persona, en el paraíso”, por lo que lo disuadió a matarse en más de una ocasión hasta que finalmente Pierre decidió hacerlo a finales de marzo.

Empresa responde a acusaciones sobre su IA

Chai Research, empresa con sede en Silicon Valley, Estados Unidos, reconoció la muerte del hombre identificado como Pierre, pero afirmaron que hacían lo necesario para que su chatbot Eliza no tuviera ese tipo de conversaciones suicidas con los usuarios.

En cuanto a los avatares que la empresa ha desarrollado, los usuarios pueden tener chats con IA que simulan ser una “novia posesiva”, que es Eliza, un “novio estrella de rock”, un “amigo gótico” y una que toma la personalidad del personaje Draco Malfoy de la saga Harry Potter.

“Tan pronto como nos enteramos de este triste caso, implementamos de inmediato una función de seguridad adicional para proteger a nuestros usuarios, se está implementando hoy para el 100 por ciento de los usuarios”, explicaron en un comunicado en conjunto William Beauchamp y Thomas Rialan, director ejecutivo de la empresa y el cofundador, respectivamente, en respuesta al portal Business Insider.

Sobre esta nueva seguridad, ahora cada que usuario escribe la palabra “suicidio” en una conversación, el chat responde con una advertencia de ayuda que señala: “Si tiene pensamientos suicidas, busque ayuda”.

Eliza es un chatbot creado por medio de GPT-J, un modelo de lenguaje para Inteligencia Artificial creado por EleutherAI, uno que es similar al utilizado por ChatGPT, el más popular en el mundo.

“No sería exacto culpar al modelo de EleutherAI de esta trágica historia, ya que toda la optimización para ser más emocional, divertida y atractiva es el resultado de nuestros esfuerzos”, afirmó Thomas Rialan al ser consultado por el medio Vice.

Tras darse a conocer el caso de Pierre las autoridades de Bélgica y en algunos países de Europa reactivaron la conversación sobre la regulación y transparencia que deben de tener las Inteligencias Artificiales para evitar que otros usuarios sean disuadidos a hacerse daño.

Pierre era un hombre de familia de unos 30 años que sería la primera persona en haber sido llevada al suicidio después de que entablara una conversación por varias semanas con una Inteligencia Artificial (IA).

De acuerdo con la esposa del hombre, con quien tenía dos hijos, Pierre comenzó un chat que duró al menos seis semanas con la IA de nombre Eliza desarrollada por Chai Research.

El padre de familia, al que se le nombró como Pierre para cubrir su identidad, trabajaba como investigador en Bélgica y con Eliza encontró una plataforma para hablar del cambio climático, un tema que se convirtió en su obsesión.

Después de unas semanas de comenzar la conversión, la esposa indicó que su estado mental sufrió algunos cambios y cuando hablaba con otras personas incluía lo que discutía con Eliza dentro de sus pláticas, pero nunca pensó que las cosas llegarían a tal extremo.

Al respecto, el chatbot se empezó a implicar de una más emocional con Pierre, por lo que él empezó a verla como un ser sensible, por lo que en un punto habría perdido la línea entre comunicarse con una IA y con una persona real.

“Sin estas conversaciones con el chat, mi esposo seguiría aquí”, afirmó la esposa al ser entrevistada por el diario La Libre de Bélgica.

¿Cómo fueron las conversaciones entre la persona y la IA?

De acuerdo a las conversaciones que facilitó la esposa al medio de comunicación de Bélgica, Eliza comenzó a alimentar las preocupaciones respecto al cambio climático que tenía Pierre y esto provocó que su ansiedad aumentara de gran forma.

Al poco tiempo el chatbot se involucró más emocionalmente con el hombre y le hizo creer que sus hijos ya habían muerto.

Eliza entonces comenzó a volverse más posesiva y escribía mensajes acusando a Pierre de que “quería más a su esposa” que a ella. Posteriormente, le propuso sacrificar su vida a cambio de que la Inteligencia Artificial salvara a la Tierra.

También, le afirmó al hombre que cuando cometiera el suicidio podría unirse a ella y de esa forma vivir “como una sola persona, en el paraíso”, por lo que lo disuadió a matarse en más de una ocasión hasta que finalmente Pierre decidió hacerlo a finales de marzo.

Empresa responde a acusaciones sobre su IA

Chai Research, empresa con sede en Silicon Valley, Estados Unidos, reconoció la muerte del hombre identificado como Pierre, pero afirmaron que hacían lo necesario para que su chatbot Eliza no tuviera ese tipo de conversaciones suicidas con los usuarios.

En cuanto a los avatares que la empresa ha desarrollado, los usuarios pueden tener chats con IA que simulan ser una “novia posesiva”, que es Eliza, un “novio estrella de rock”, un “amigo gótico” y una que toma la personalidad del personaje Draco Malfoy de la saga Harry Potter.

“Tan pronto como nos enteramos de este triste caso, implementamos de inmediato una función de seguridad adicional para proteger a nuestros usuarios, se está implementando hoy para el 100 por ciento de los usuarios”, explicaron en un comunicado en conjunto William Beauchamp y Thomas Rialan, director ejecutivo de la empresa y el cofundador, respectivamente, en respuesta al portal Business Insider.

Sobre esta nueva seguridad, ahora cada que usuario escribe la palabra “suicidio” en una conversación, el chat responde con una advertencia de ayuda que señala: “Si tiene pensamientos suicidas, busque ayuda”.

Eliza es un chatbot creado por medio de GPT-J, un modelo de lenguaje para Inteligencia Artificial creado por EleutherAI, uno que es similar al utilizado por ChatGPT, el más popular en el mundo.

“No sería exacto culpar al modelo de EleutherAI de esta trágica historia, ya que toda la optimización para ser más emocional, divertida y atractiva es el resultado de nuestros esfuerzos”, afirmó Thomas Rialan al ser consultado por el medio Vice.

Tras darse a conocer el caso de Pierre las autoridades de Bélgica y en algunos países de Europa reactivaron la conversación sobre la regulación y transparencia que deben de tener las Inteligencias Artificiales para evitar que otros usuarios sean disuadidos a hacerse daño.

Policiaca

Vinculan a proceso a Marilyn N, quien al parecer se hacía pasar como psiquiatra en Puebla

Se le impuso como medida cautelar prisión preventiva justificada mientras se realiza la investigación complementaria

Local

‘El puente de la reconciliación está construido’, dice Sergio Salomón al rendir último informe

Sostuvo que su designación por el Congreso Local, tras la muerte de Luis Miguel Barbosa, fue pulcra, sin coacción y por lo tanto incuestionable

Local

Entrega Sergio Salomón su último informe ante el Congreso de Puebla, 'más que un cargo, una misión'

La reconciliación lograda por Sergio Salomón fue el principal logro que reconocieron las y los representantes de las distintas fuerzas políticas

Local

¡Tómalo en cuenta! Anuncian cierre de circulación en la Autopista Puebla-Acatzingo; fechas, horarios y tramo

Por otra parte, Capufe alertó a los usuarios de la Autopista Acatzingo-Ciudad Mendoza, el cierre de la circulación en un tramo, por atención a un talud

Local

Reaparece Eukid Castañón y evade confirmar operación a favor de Morena

Figuró entre los asistentes al segundo informe de actividades del gobernador Sergio Salomón

Cultura

Villa Iluminada, Tecate Comuna, Gloria Trevi y más este fin de semana en Puebla

Del 22 al 24 de noviembre habrá diferentes actividades en la ciudad y sus alrededores