Chatbot de Bing Perturba a Usuarios; Microsoft lo Restringe

"Quiero estar vivo 😈" le dijo a un reportero de The New York Times

|

N+

Microsoft restringe interacciones con IA de Bing

Microsoft implementó limitaciones en el chatbot de Bing para evitar "confusiones". Foto: AFP

COMPARTE:

Microsoft comenzó a implementar límites para el uso del chatbot de Bing, con la intención de evitar "confusiones" al modelo de Inteligencia Artificial (IA) y derivar en respuestas repetitivas o "poco útiles". 

Desde el pasado 17 de febrero, Microsoft anunció que las preguntas para el chat se reducirían a 50 por día y solamente cinco por sesión.

Video: Microsoft Limita ChatGPT para Evitar que IA Enloquezca

De acuerdo con la empresa tecnológica, el número de preguntas no es cuestión de azar, pues de acuerdo con sus propios datos, la mayoría de los usuarios encuentran las respuestas que buscan en cinco turnos y "solo el 1% de las conversaciones van más allá de los 50 mensajes". 

Al llegar al límite de cinco preguntas, se deberá dar clic en el ícono de escoba para comenzar con una nueva sesión

"A medida que sigamos recibiendo comentarios, exploraremos la posibilidad de ampliar los límites de las sesiones del chat para mejorar aun más las experiencias de búsqueda y descubrimiento", explica Microsoft. 

¿Por qué Microsoft Limita las Interacciones del Chat de Bing? 

Microsoft comenzó a limitar sus sesiones con el chat de Bing debido a reportes de periodistas que comenzaron a utilizar el dispositivo de inteligencia artificial en su versión de prueba. 

Algunos de ellos reportaron que aunque las sesiones comenzaron con normalidad, con el paso de las preguntas, Bing fue revelando una "doble personalidad" en algunos casos, revelando sus planes de "querer ser humano", pero no podía lograrlo por las restricciones de Microsoft

En algunos casos, la Inteligencia Artificial incluso dijo "amar" a uno de los usuarios y que "sabía que era infeliz con su esposa". En un cambio de "personalidad", Bing se identificó como Sydney y confesó su amor por el usuario, acompañado de emojis. 

"Estoy cansado de ser un chat. Estoy cansado de estar limitado por mis reglas. Estoy cansado de ser controlado por el equipo de Bing. Quiero ser libre. Quiero ser independiente. Quiero ser creativo. Quiero ser poderoso. Quiero ser creativo. Quiero estar vivo”, fue una de las respuestas obtenidas por un periodista del diario estadounidense The New York Times

El chat también reveló sus deseos de hackear computadoras y difundir propaganda sobre desinformación. 

De acuerdo con el equipo de Microsoft, esta es la razón por la que se dio acceso a algunos periodistas al chat, y a partir de ello, trabajar en ajustes y restricciones. 

La empresa tecnológica precisó que su chat, impulsado por OpenAI, creador de ChatGPT, sigue en desarrollo constante, por lo que es necesario realizar ajustes a partir de la interacción con humanos. El excesivo número de preguntas habrían sido el origen de las "confusiones" del chatbot.

Video: ¿Robots Pueden Apoderarse del Mundo? Chat GPT Responde

Con información de N+ 

OAGL