
A veces, los chatbots pueden proporcionar respuestas realmente excéntricas o inesperadas.
Recientemente ha estado circulando en X un vídeo de hace dos años que muestra el intento fallido de Slackbot. El usuario Pragun publicó la escena el viernes con la leyenda: «Hace exactamente 2 años, me quedé atrapado en un ascensor». La publicación ha obtenido más de 2.500 me gusta.
La imagen muestra a Pragun alertando a sus colegas de su situación en todas las cartas: «GROOK, ESTOY EN LA VIDA LABORAL». Slackbot está siempre atento a la implementación de la inclusión en el lugar de trabajo, con una sugerencia que reemplaza «hombres» con una alternativa neutral en cuanto al género, como «personas», «todos» o «todos».
Pragun, quizás más preocupado por su propia situación inmediata que por escuchar la guía políticamente correcta de Slackbot, responde con un sarcasmo: «Amigos, estoy en mi vida».
Hace exactamente 2 años me quedé atrapado en un ascensor. pic.twitter.com/OCTlCxHoai
– Praga (@pragdua) 15 de marzo de 2024
Este caso pone de relieve las deficiencias ocasionales de los chatbots impulsados por IA. Si bien están programados para promover el compromiso, a veces pueden malinterpretar situaciones y ofrecer sugerencias irrelevantes o inútiles.
Esta no es la primera vez que una conversación con un chatbot sacude Internet. El año pasado, una conversación entre un usuario de X y un chatbot de Bing se volvió viral debido a la respuesta combativa del bot.
Mi nueva cosa favorita: el nuevo bot ChatGPT de Bing está discutiendo con un usuario, quejándose del actual año 2022, diciendo que su teléfono podría tener un virus y diciendo «No has sido un buen usuario».
¿Por qué? Porque alguien preguntó dónde se muestra Avatar 2. pic.twitter.com/X32vopXxQG
– Jon Uleis (@MovingToTheSun) 13 de febrero de 2023
En febrero del año pasado, surgió una conversación entre un usuario llamado Jon Uleis y el bot ChatGPT de Bing, principalmente debido al tono «hostil» del bot. Todo comenzó con la pregunta de Jon sobre la fecha de estreno de Avatar 2. Sin embargo, la conversación dio un giro inesperado cuando el robot afirmó erróneamente que la película aún no se había estrenado. A pesar de los intentos de Jon de aclarar, el robot mantuvo su postura, contribuyendo a la conversación. Para agregar un giro sorprendente, el chatbot de Bing terminó la conversación disculpándose con Jon por lo que percibió como su comportamiento. Esta interacción llamó la atención por su dinámica inusual y su inesperado cambio de roles donde el bot adoptó un tono adversario hacia el usuario.
Haga clic para obtener más noticias de actualidad