El hombre atrapado en el ascensor; Las sugerencias de edición ‘colectivas’ del bot añaden humor a las crisis

El hombre atrapado en el ascensor;  Las sugerencias de edición 'colectivas' del bot añaden humor a las crisis

A veces, los chatbots pueden proporcionar respuestas realmente excéntricas o inesperadas.

Recientemente ha estado circulando en X un vídeo de hace dos años que muestra el intento fallido de Slackbot. El usuario Pragun publicó la escena el viernes con la leyenda: «Hace exactamente 2 años, me quedé atrapado en un ascensor». La publicación ha obtenido más de 2.500 me gusta.

La imagen muestra a Pragun alertando a sus colegas de su situación en todas las cartas: «GROOK, ESTOY EN LA VIDA LABORAL». Slackbot está siempre atento a la implementación de la inclusión en el lugar de trabajo, con una sugerencia que reemplaza «hombres» con una alternativa neutral en cuanto al género, como «personas», «todos» o «todos».

Pragun, quizás más preocupado por su propia situación inmediata que por escuchar la guía políticamente correcta de Slackbot, responde con un sarcasmo: «Amigos, estoy en mi vida».

Este caso pone de relieve las deficiencias ocasionales de los chatbots impulsados ​​por IA. Si bien están programados para promover el compromiso, a veces pueden malinterpretar situaciones y ofrecer sugerencias irrelevantes o inútiles.

Esta no es la primera vez que una conversación con un chatbot sacude Internet. El año pasado, una conversación entre un usuario de X y un chatbot de Bing se volvió viral debido a la respuesta combativa del bot.

En febrero del año pasado, surgió una conversación entre un usuario llamado Jon Uleis y el bot ChatGPT de Bing, principalmente debido al tono «hostil» del bot. Todo comenzó con la pregunta de Jon sobre la fecha de estreno de Avatar 2. Sin embargo, la conversación dio un giro inesperado cuando el robot afirmó erróneamente que la película aún no se había estrenado. A pesar de los intentos de Jon de aclarar, el robot mantuvo su postura, contribuyendo a la conversación. Para agregar un giro sorprendente, el chatbot de Bing terminó la conversación disculpándose con Jon por lo que percibió como su comportamiento. Esta interacción llamó la atención por su dinámica inusual y su inesperado cambio de roles donde el bot adoptó un tono adversario hacia el usuario.

Haga clic para obtener más noticias de actualidad

Puede interesarte

Géminis abandonado en el polvo

Como se ha informado ampliamente, Google recientemente impidió que su chatbot Gemini creara imágenes de …

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *