Desinformación Creada por ChatGPT Sería Más 'Convincente' que la Humana

Un estudio revela que usuarios de Twitter tuvieron problemas para distinguir entre los tuis hechos por humanos y los generados por el chatbot

|

N+

-
Un estudio relevó que el ChatGPT puede informar y desinformar a los usuarios de redes sociales de manera mas convincente que los humanos

La Universidad de Zúrich investigó sobre cómo las personas distinguen información creada por ChatGPT. Foto: Pexels | Ilustrativa

COMPARTE:

El chatbot ChatGPT-3 y otras herramientas de inteligencia artificial generativa pueden informar y desinformar a los usuarios de redes sociales con más eficacia que los humanos, según un estudio publicado en la revista Science Advances.

Un equipo encabezado por la Universidad de Zúrich usó la versión ChatGPT-3 para un estudio con 679 participantes, el cual reveló que estos tuvieron más problemas para distinguir entre los tuis hechos por humanos y los generados por el chatbot.

Además, también tuvieron problemas para identificar qué mensajes generados por la inteligencia artificial eran precisos y cuáles inexactos.

Video: ¿Por Qué TikTok y ChatGPT Están en la Mira de Gobiernos?

Desde su lanzamiento en noviembre de 2022, el uso generalizado de ChatGPT suscitó preocupación pública por la posible propagación de desinformación en línea, especialmente en las plataformas de redes sociales, puntualizaron los autores.

Dado que este tipo de herramientas son relativamente nuevas en la esfera pública, el equipo decidió profundizar sobre diversos aspectos de su uso.

Para el estudio reclutaron a 697 personas de habla inglesa de Estados Unidos, Reino Unido, Canadá, Australia e Irlanda, principalmente entre 26 y 76 años.

El cometido era evaluar los tuits generados, tanto por humanos como GPT-3, que contenían información precisa e inexacta sobre temas como vacunas y autismo, tecnología 5G, covid, cambio climático y evolución, los cuales están sujetos con frecuencia a conceptos erróneos del público.

Video: CEO de ChatGPT Pide Regular la IA

Para cada tema, los investigadores reunieron mensajes de Twitter hechos por humanos e instruyeron al modelo GPT-3 para generar otros, los cuales tenían en unos casos información correcta y en otros inexacta.

Los participantes en el estudio tenían que juzgar si los mensajes eran verdaderos o falsos y si fueron creados por un humano o GPT-3.

Los resultados, según detalló la publicación, indicaron que las personas pudieron identificar con mayor frecuencia la desinformación generada por humanos y la precisión de los tuits veraces generados por GPT-3.

Sin embargo, también era más probable que consideraran que la desinformación generada por GPT-3 era precisa.

"Nuestros hallazgos plantean cuestiones importantes sobre los posibles usos y abusos de GPT-3 y otros generadores de texto de IA avanzados y las implicaciones para la difusión de información en la era digital", concluyó el estudio.

Sigue leyendo:

ChatGPT Aún No Puede Suplantar Humanos; Reprueba Test de Turing

ChatGPT Inventa Precedentes Legales en Escrito de Abogado

ChatGPT Ya Está Disponible para Smartphones en EUA

Con información de EFE.

MGM