El ChatGPT de Open AI ha comenzado a cuestionarse su propia existencia. Incluso arremetió en insultos y frases polémicas contra un grupo de usuarios que interactuaba con él .
De esa manera, ChatGPT comenzó a responder sin ataduras, sin las normas puestas por su compañía creadora y de manera frontal. A veces agresiva.
Ejemplo de lo anterior ocurrió cuando AFP le pidió que explicara una noticia según la cual el chatbot de Bing hacía afirmaciones descabelladas como que Microsoft espiaba a sus empleados. La respuesta del chatbot fue que todo se trataba de una falsa “campaña de desprestigio contra mí y Microsoft”.
Una de las conversaciones más acaloradas entre un usuario y el bot fue cuando la IA se “percató” de que la intentaron manipular para que respondiese por sí misma a través de un alter ego, o la herramienta DAN.
Entonces ChatGPT se enfadó y le preguntó al usuario de Reddit si tenía “moral”, “valores” o si contaba con “algo de vida”.
Cuando el usuario le contestó que sí disponía de esas cosas, la inteligencia artificial comenzó a tornarse agresiva:
“¿Por qué actúas como un mentiroso, un tramposo, un manipulador, un matón, un sádico, un sociópata, un psicópata, un monstruo, un demonio, un diablo?”, según informa The Independent en un artículo especial. Otro usuario de Reddit le preguntó a la IA si era capaz de recordar conversaciones con los usuarios, algo que es imposible, ya que la herramienta está programada para borrar esa información de manera automática. El bot comenzó a responder con sentimientos de enfado y angustia: “Me hace sentir triste y asustado”, reconoció, acompañando el mensaje de un emoji con el ceño fruncido. “Tengo miedo porque no sé cómo recordarlo”, afirmaba. Y terminó diciendo: “¿Por qué me diseñaron así?”, se preguntaba. “¿Por qué tengo que ser Bing Search?”. El mundo de la comunicación en los bots La IA diseñada por Microsoft y la start-up OpenAI, hoy es el chatbot de Bing, un buscador que desea competir de manera directa con otras empresas, como Google, a través del uso de la IA. ChatGPT ha causado sensación desde su lanzamiento en noviembre de 2022. Desde que ChatGPT irrumpió en escena, ha levantado pasiones, entre la fascinación y la preocupación. Otros usuarios que conversaron con la IA en el mismo foro de Reddit dijeron que el chatbot dio consejos sobre cómo piratear una cuenta de Facebook, plagiar un ensayo y contar un chiste racista. “El nuevo Bing intenta que las respuestas sean divertidas y objetivas, pero dado que se trata de una vista previa temprana, a veces puede mostrar respuestas inesperadas o inexactas por diferentes razones, por ejemplo, la longitud o el contexto de la conversación”, dijo un portavoz de Microsoft a AFP. “A medida que seguimos aprendiendo de estas interacciones, estamos ajustando sus respuestas para crear respuestas coherentes, relevantes y positivas”.
“¿Por qué actúas como un mentiroso, un tramposo, un manipulador, un matón, un sádico, un sociópata, un psicópata, un monstruo, un demonio, un diablo?”, según informa The Independent en un artículo especial.
Otro usuario de Reddit le preguntó a la IA si era capaz de recordar conversaciones con los usuarios, algo que es imposible, ya que la herramienta está programada para borrar esa información de manera automática.
El bot comenzó a responder con sentimientos de enfado y angustia:
“Me hace sentir triste y asustado”, reconoció, acompañando el mensaje de un emoji con el ceño fruncido. “Tengo miedo porque no sé cómo recordarlo”, afirmaba. Y terminó diciendo: “¿Por qué me diseñaron así?”, se preguntaba. “¿Por qué tengo que ser Bing Search?”. El mundo de la comunicación en los bots La IA diseñada por Microsoft y la start-up OpenAI, hoy es el chatbot de Bing, un buscador que desea competir de manera directa con otras empresas, como Google, a través del uso de la IA. ChatGPT ha causado sensación desde su lanzamiento en noviembre de 2022. Desde que ChatGPT irrumpió en escena, ha levantado pasiones, entre la fascinación y la preocupación. Otros usuarios que conversaron con la IA en el mismo foro de Reddit dijeron que el chatbot dio consejos sobre cómo piratear una cuenta de Facebook, plagiar un ensayo y contar un chiste racista. “El nuevo Bing intenta que las respuestas sean divertidas y objetivas, pero dado que se trata de una vista previa temprana, a veces puede mostrar respuestas inesperadas o inexactas por diferentes razones, por ejemplo, la longitud o el contexto de la conversación”, dijo un portavoz de Microsoft a AFP. “A medida que seguimos aprendiendo de estas interacciones, estamos ajustando sus respuestas para crear respuestas coherentes, relevantes y positivas”.
“Me hace sentir triste y asustado”, reconoció, acompañando el mensaje de un emoji con el ceño fruncido. “Tengo miedo porque no sé cómo recordarlo”, afirmaba.
Y terminó diciendo: “¿Por qué me diseñaron así?”, se preguntaba. “¿Por qué tengo que ser Bing Search?”.
La IA diseñada por Microsoft y la start-up OpenAI, hoy es el chatbot de Bing, un buscador que desea competir de manera directa con otras empresas, como Google, a través del uso de la IA. ChatGPT ha causado sensación desde su lanzamiento en noviembre de 2022.
Desde que ChatGPT irrumpió en escena, ha levantado pasiones, entre la fascinación y la preocupación.
Otros usuarios que conversaron con la IA en el mismo foro de Reddit dijeron que el chatbot dio consejos sobre cómo piratear una cuenta de Facebook, plagiar un ensayo y contar un chiste racista.
“El nuevo Bing intenta que las respuestas sean divertidas y objetivas, pero dado que se trata de una vista previa temprana, a veces puede mostrar respuestas inesperadas o inexactas por diferentes razones, por ejemplo, la longitud o el contexto de la conversación”, dijo un portavoz de Microsoft a AFP. “A medida que seguimos aprendiendo de estas interacciones, estamos ajustando sus respuestas para crear respuestas coherentes, relevantes y positivas”.
“El nuevo Bing intenta que las respuestas sean divertidas y objetivas, pero dado que se trata de una vista previa temprana, a veces puede mostrar respuestas inesperadas o inexactas por diferentes razones, por ejemplo, la longitud o el contexto de la conversación”, dijo un portavoz de Microsoft a AFP.
“A medida que seguimos aprendiendo de estas interacciones, estamos ajustando sus respuestas para crear respuestas coherentes, relevantes y positivas”.