Google, Microsoft, Anthropic y OpenAI Unen Fuerzas para Autorregularse

Los líderes de estas empresas no niegan los riesgos de esta tecnología, por lo que buscan crear una agencia internacional encargada de la gobernanza de la inteligencia artificial

|

N+

-
Google, Microsoft, Anthropic y OpenAI Unen Fuerzas para Autorregularse

Cuatro empresas que lideran la carrera por IA entienden los riesgos de esta tecnología. Foto: Pexels | Ilustrativa

COMPARTE:

"Frontier Model Forum" (Foro del Modelo de Frontera) es la nueva organización que busca combatir los riesgos asociados a la tecnología para promover el desarrollo responsable de los modelos más sofisticados de inteligencia artificial (IA) de las empresas Google, Microsoft, Anthropic y OpenAI.

Video: Inteligencia Artificial, Riesgo Como Pandemia o Guerra Nuclear

Según un comunicado, los miembros se comprometen a compartir las mejores prácticas para que estos nuevos sistemas sean menos peligrosos y "minimizar riesgos potenciales". 

El rápido despliegue de la IA generativa ha causado mucha preocupación entre autoridades, por ello la Unión Europea (UE) está finalizando un proyecto de regulación para imponer obligaciones a las empresas del sector, como la transparencia con los usuarios o el control humano sobre las máquinas.

En Estados Unidos, la Casa Blanca insta que se garantice la seguridad de dichos productos, en nombre de su "deber moral".

Mientras la semana pasada, la administración de Joe Biden aseguró "compromisos" de Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI para defender "tres principios" en el desarrollo de IA: seguridad, protección y confianza.

Los líderes de estas empresas son conscientes de los riesgos y saben que deben de luchar contra ataques cibernéticos, el fraude, y encontrar la manera de marcar el contenido generado por IA, para que quede autenticado claramente como tal.

Sigue leyendo: 

Con información de AFP

MV | ICM