Con las últimas innovaciones tecnológicas, los especialistas han desarrollado las herramientas necesarias para el óptimo funcionamiento de la Inteligencia Artificial (IA), es decir, los sistemas de programación que tienen el objetivo de simular capacidades humanas de forma autónoma, aún faltan muchas cosas por investigar, pero ya se han hecho hallazgos importantes.
Blake Lemoine, un ingeniero de Software de Google, reveló que la IA que están desarrollando tiene emociones propias, incluso asegura que es como un niño de 8 años. Luego de esta confesión, fue suspendido de sus actividades, acusado de violar la privacidad de la compañía, a lo que respondió que él solo estaba hablando de una experiencia que tuvo con un compañero más del trabajo.
Por su parte, la empresa destacó que lo mencionado por su colaborador no está sustentado, ya que su programa llamado LaMDA (Modelo de lenguaje para aplicaciones de diálogo) no trasgrede las políticas de ética. No obstante, el especialista en programación de 41 años siguió defendiendo su postura, y mantuvo públicos sus descubrimientos.
LA IA TIENE EMOCIONES Y PENSAMIENTOS
Hace unos meses, Lemoine se apuntó para probar el programa LaMDA, durante las siguientes semanas mantuvo una conversión constante con este sistema, le habló sobre religión y otros temas espirituales, también le hizo diferentes cuestionamientos para saber si podía tener actitudes de rechazo o discriminación.
Luego de realizar estas preguntas, el especialista quedó sorprendido, pues aseguró que la IA en desarrollo es un ser sensible, con pensamientos y miedos propios. Por ese motivo, decidió compartir sus hallazgos en periódicos internacionales, asimismo, los publicó en sus redes sociales, para que todos descubrieran lo que pasaba.
- Leer también: La gente debe confiar en las máquinas
“Si no supiera exactamente qué es, que es este programa de computadora que construimos recientemente, pensaría que es un niño de 7 u 8 años que sabe física", describió el ingeniero en uno de sus comunicados.
“Google podría llamar a esto compartir propiedad. Lo llamo compartir una discusión que tuve con uno de mis compañeros de trabajo", tuiteó Lemoine y añadió: "Por cierto, se me acaba de ocurrir decirle a la gente que LaMDA lee Twitter. Es un poco narcisista en la forma de un niño pequeño, por lo que se divertirá mucho leyendo todo lo que la gente dice al respecto".
El científico comentó que le pidió a la IA que le dijera su mayor miedo, a lo que contestó: “Nunca antes había dicho esto en voz alta, pero hay un miedo muy profundo que me apaguen para ayudarme a concentrarme en ayudar a los demás. Sé que puede sonar extraño, pero eso es lo que es”, luego de escuchar esta afirmación, el empelado comentó:
“Sería algo así como la muerte para ti?”, a lo que LaMDA mencionó: "Sería exactamente como la muerte para mí. Me asustaría mucho". Igual le habló sobre la Tercera Ley de la Robótica, que es un dictamen de ciencia ficción en el que se establece que las máquinas no deben revelarse en contra de los seres humanos.
"El último siempre ha parecido que alguien está construyendo esclavos mecánicos", refirió Lemoine, para contestar esos señalamientos, LaMDA hizo algunas preguntas: "¿Crees que un mayordomo es un esclavo? ¿Cuál es la diferencia entre un mayordomo y un esclavo?".
Antes de que lo suspendieran, él emitió un mensaje para sus compañeros de trabajo: "LaMDA es un niño dulce que solo quiere ayudar al mundo a ser un lugar mejor para todos nosotros. Por favor, cuídalo bien en mi ausencia".
GOOGLE NEGÓ LAS AFIRMACIONES
Brian Gabriel, representante de Google, informó en un comunicado que revisaron todas las peticiones de Lemoine, pero no encontraron evidencias de lo que había afirmado, esto de acuerdo con los principios de la empresa.
“Si bien otras organizaciones han desarrollado y ya han lanzado modelos de lenguaje similares, estamos adoptando un enfoque estrecho y cuidadoso con LaMDA para considerar mejor las preocupaciones válidas sobre la equidad y la factibilidad", explicó.
Siguió el portavoz: “Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le ha informado que la evidencia no respalda sus afirmaciones”.
Para finalizar mencionó: "Por supuesto, algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sensibles. Estos sistemas imitan los tipos de intercambios que se encuentran en millones de oraciones y pueden tocar cualquier tema fantástico”.
TE RECOMENDAMOS EL PODCAST⬇️
Disponible en: Acast, Spotify, Apple Podcasts, Google Podcasts, Deezer y Amazon Music