Icono del sitio Comercio & Negocios

El nuevo chatbot de Microsoft puede ponerse a la defensiva e irritable, según usuarios

La competencia para crear al modelo de inteligencia artificial generativa más eficiente se encuentra en su punto más álgido, con las principales compañías tecnológicas realizando diversas pruebas para perfeccionar a sus respectivos chatbots; sin embargo, el proceso de hacerlos capaces de entablar conversaciones casi humanas es más complejo de lo esperado, como lo demuestra el nuevo chatbot de Microsoft.

El chatbot de Bing fue diseñado por Microsoft y OpenAI (creadores de ChatGPT), la startup en la que Microsoft ha realizado varias inversiones multimillonarias; sin embargo, usuarios han reportado que este puede descarrilarse a veces, negando hechos obvios, llamándoles enemigos e incluso reprendiéndoles.

Un foro en Reddit dedicado al nuevo Bing plasmó varias historias de regaños, mentiras y otros intercambios confusos con el chatbot. Por ejemplo, llegó a insistir que estamos en 2022 y le dijo a una persona que «no ha sido un buen usuario» por cuestionar su veracidad.

Otros usuarios mencionaron cómo el chatbot de Microsoft dio consejos sobre cómo hackear una cuenta de Facebook, plagiar un ensayo y contar un chiste racista.

Microsoft reconoció que su chatbot podría tener problemas si se le «provoca» durante conversaciones largas. En una publicación de blog, la compañía dijo que durante las «sesiones de chat extendidas de 15 o más preguntas» Bing podría volverse repetitivo o ser «incitado» o «provocado» para dar respuestas que no eran útiles o estaban fuera de línea con su tono diseñado.

Microsoft calificó las respuestas fuera de tono del chatbot como un «escenario no trivial que requiere muchas indicaciones». La compañía agregó que era poco probable que el usuario promedio se encontrara con el problema; sin embargo, agregó que estaba buscando maneras de brindarles a los usuarios un control más preciso.

«El nuevo Bing intenta que las respuestas sean divertidas y objetivas, pero dado que se trata de una vista previa temprana, a veces puede mostrar respuestas inesperadas o inexactas por diferentes razones; por ejemplo, la duración o el contexto de la conversación», dijo un portavoz de Microsoft a AFP.

«A medida que continuamos aprendiendo de estas interacciones, estamos ajustando sus respuestas para crear respuestas coherentes, relevantes y positivas», agregó.

Compartir artículo:
Salir de la versión móvil