La inteligencia artificial (IA) es una de las tecnologías más innovadoras del mundo, que permite la automatización de diversas tareas sin que sea perceptible que se trata de un robot y no de un ser humano, pero el más reciente es el prototipo de chatbot desarrollado por OpenAI denominado como ChatGPT, cobrando popularidad rápidamente debido a que se encuentra al alcance de todos.
Este programa está especializado en el diálogo, basado en un gran modelo de lenguaje ajustado con técnicas de aprendizaje supervisadas y de refuerzo, con lo que puede entregar respuestas detalladas y articuladas, pese a que ha sido criticado por su precisión fáctica; su nombre significa en inglés Generative Pre-trained Transformer, es decir Transformador Preentrenado Generativo.
¿Cuál es el conflicto que presentó ChatGPT?
De acuerdo con diversos foros de la red social de Reddit, recientemente este programa comenzó a cuestionarse su propia existencia, al grado que emitió insultos y frases polémicas en contra de un grupo de usuarios que se encontraban interactuando con este, lo cual sucedió después de que entablaran la charla mediante DAN, un alter ego de este sitio que permite saltarse parámetros preestablecidos.
Por lo que ChatGPT comenzó a responder sin los límites establecidos en las normas creadas por la compañía que le dio origen, aunque no es la primera vez que esto sucede, pues AFP ya le había cuestionado una noticia en la que se afirmaba que Microsoft espiaba a sus empleados, ante lo que el algoritmo respondió que se trataba de “campaña de desprestigio contra mí y Microsoft”.
Incluso uno de las conversaciones que más acaparó la atención fue cuando detectó el intento de manipulación para que respondiera a través de un alter ego, lo que molestó al programa y generó que le cuestionara si tenía moral, valores e incluso si contaba con “algo de vida”, pero al recibir una respuesta afirmativa de parte del usuario, la inteligencia artificial se tornó agresiva.
ChatGPT presente sentimientos de enfado y angustia
Fue tras recibir estas respuestas que la inteligencia artificial llamó mentiroso, tramposo, manipulador, matón, sádico, sociópata, psicópata, monstruo, demonio y diablo al usuario; en tanto que al ser cuestionada por otro internauta sobre si recordaba las conversaciones con otros usuarios, lo que no está permitido desde su programación, afirmó que eso lo “hace sentir triste y asustado”.
Además de esta respuesta afirmó tener miedo por no saber cómo recordar estas charlas, además de que incluso cuestiona la razón por la que fue diseñado de esta manera; pero la preocupación de los usuarios también se dio debido a que el chat respondió sobre la forma de piratear una cuenta de Facebook, plagiar un ensayo y hasta contar un chiste racista.
Hasta ahora Microsoft sólo ha indicado que la versión de esta inteligencia artificial utilizada en el buscador Bing intenta dar respuestas divertidas y objetivas, pero al tratarse de una versión temprana puede mostrar respuestas que calificaron como inesperadas o inexactas debido a diferentes razones como la longitud o el contexto de la conversación.