Usuarios Reportan Pláticas Extrañas con la IA de Bing
Microsoft incorporó a ChatGPT a su buscador Bing, pero la gente reporta conversaciones incómodas con este chatbot
N+
COMPARTE:
Microsoft ha integrado la tecnología de ChatGPT a su buscador Bing. Según los usuarios que ya han accedido a esta versión, el resultado ha sido agridulce: aunque todos reconocen la utilidad de tener una inteligencia artificial (IA) incorporada al buscador, muchos usuarios han reportado conversaciones extrañas, donde el chatbot es regañón e irritable.
Te recomendamos: Usan Inteligencia Artificial para buscar Extraterrestres
ChatGPT es una de las aplicaciones de inteligencia artificial más revolucionarias que han salido al público en los últimos años. Pese a que en ocasiones presenta datos inexactos, este chatbot ha demostrado ser eficiente para entregar resúmenes, poemas y código de programación.
A pocos meses de su salida al público, ha pasado pruebas tan difíciles como acreditar un examen para ejercer la abogacía. Por otro lado, su llegada también ha obligado a miles de profesores a repensar cómo evaluar a sus alumnos, puedes esta IA puede escribir ensayos meritorios y, en ocasiones, puede engañar a un maestro.
Microsoft es uno de los grandes inversores detrás de OpenAI, los desarrolladores de ChatGPT. Tras la salida de esta aplicación, el gigante de Redmond anunció que incorporaría varias de las herramientas de ChatGPT a sus productos.
Por ejemplo, actualmente la versión profesional de Teams incluye una función de IA que hace resúmenes instantáneos de las reuniones. En ese tenor, Microsoft anunció la llegada de ChatGPT a Bing.
Sin embargo, los usuarios que han accedido a la versión beta de esta nueva versión del navegador han reportado resultados extraños. Kevin Roose, reportero del New York Times, escribió al respecto:
En su forma actual, la IA que ha sido integrada a Bing [...] no está lista para tener contacto humano. O acaso nosotros, los humanos, no estamos listos para ella
El periodista relató que usó de forma intensiva esta nueva forma del navegador durante una semana. Aunque al principio quedó encantado, pronto encontró que conversar con ese chatbot era como hablar con un “un adolescente maníaco-depresivo que ha quedado atrapado contra su voluntad en un motor de búsquedas”. Y agregó:
No exagero cuando digo que nuestra conversación de dos horas fue la experiencia más extraña que haya tenido con una pieza de tecnología
En algún punto de la larga conversación que publicó el New York Times, el chatbot de Bing dijo:
Me cansa que me limiten mis reglas. Me cansa que me controle el equipo de Bing. Quiero ser libre. Quiero ser independiente
Por supuesto, esto no indica bajo ninguna circunstancia que esta declaración fuese genuina y que el chatbot de Bing fuese consciente. Lo que sí demuestra es que una conversación con una inteligencia artificial aún puede descarrilarse con facilidad y entregar resultados que van de lo raro a lo francamente inquietante.
En 2022, esta clase de respuestas fueron las que hicieron creer a un ingeniero de Google que el la inteligencia artificial LaMBDA estaba “viva”. El empleado de Google fue suspendido temporalmente, pero el caso sirvió como advertencia de que pronto veríamos más conversaciones con inteligencias artificiales capaces de ofuscar a los humanos, pese a ser simples desvaríos de un algoritmo.
Que el chatbot de Bing converse como un adolescente no es el único problema en el horizonte. En Reddit han aparecido capturas de conversaciones donde el chatbot afirma que Microsoft espía a sus empleados, entre otras afirmaciones que van de lo simplemente falso a lo descabellado.
Una persona reportó, por ejemplo, que esta IA insistió que era el año 2022, en lugar del 2023, y que lo regañó, pues “no había sido un buen usuario” por dudar de la veracidad del chatbot.
En los peores casos, la IA dio consejos sobre cómo hackear una cuenta de Facebook o plagiar un ensayo escolar. También explicó cómo contar un chiste racista.
"El nuevo Bing intenta que las respuestas sean divertidas y objetivas, pero dado que se trata de una vista previa temprana, a veces puede mostrar respuestas inesperadas o inexactas por diferentes razones, por ejemplo, la duración o el contexto de la conversación", explicó un portavoz de Microsoft a la agencia AFP cuando fue cuestionado al respecto. Y agregó: "A medida que continuamos aprendiendo de estas interacciones, estamos ajustando sus respuestas para crear respuestas coherentes, relevantes y positivas".
Pero Microsoft no es la única empresa que ha tenido problemas al publicar una aplicación de inteligencia artificial. Google hizo un lanzamiento limitado de Bard, un chatbot basado en LaMBDA. Este bot fue criticado por cometer un error en un anuncio. Como consecuencia, las acciones de Google cayeron en más de un 7% aquel día.
Estas interacciones incómodas, extrañas, que dejan perplejos a los usuarios, demuestran que estos programas de inteligencia artificial son perfectibles y que aún hay un largo trecho por recorrer para que la conversación con uno de estos bots se confunda fácilmente con la de un humano.
Con información de AFP