‘La IA Nos Puede Matar’: Experto Advierte sobre Sus Riesgos
Eliezer Yudkowsky, uno de los principales expertos a nivel mundial, advierte que las inteligencias artificiales ponen en riesgo a la humanidad
N+
COMPARTE:
Con la irrupción de la herramienta ChatGPT, el desarrollo de las inteligencias artificiales (IA) han llamado la atención del público de forma inusitada. Sin embargo, no todos son entusiastas de ella. Tal es el caso de Eliezer Yudkowsky, uno de los principales expertos a nivel mundial en IA, quien afirma que estas podrían matarnos si nos las detenemos.
En 1991 apareció Terminator 2. Dirigida y escrita por James Cameron, esta película fue el primer acercamiento que millones de personas tuvieron con el concepto de inteligencia artificial: una máquina autoconsciente que, en este caso, era representada por la destructiva Skynet.
A 32 años de distancia, las inteligencias artificiales son herramientas deslumbrantes pero inofensivas. Aún no son autoconscientes, sin embargo ya cuenta con capacidades que podrían revolucionar el mercado laboral en los próximos años y eliminar varios puestos de empleo.
Según OpenAI, empresa creadora de ChatGPT, las inteligencias artificiales podrían barrer con una gran parte de los trabajos que ocurren frente a una computadora. La irrupción súbita de esta tecnología en nuestras vidas y la ausencia de regulaciones nacionales e internacionales han motivado que varias figuras prominentes del mundo de la tecnología firmaran una carta pidiendo una moratoria de seis meses en el desarrollo de las IA.
Figuras como Elon Musk y Steve Wozniak, creador de las primeras computadoras Apple, señalaron que no existe aún un marco regulatorio para las IA y menos aún se han creado los mecanismos necesarios para su correcta supervisión. Por ello, pidieron que la investigación en las inteligencias artificiales avanzadas parara por seis meses.
Contrario a lo que podría creerse, su posición está lejos de ser la más radical. Eliezer Yudkowsky, uno de los principales expertos a nivel mundial en el tema, publicó en la revista Time un artículo en donde afirma que el desarrollo de las inteligencias artificiales avanzadas debería detenerse completamente.
Según el fundador del Instituto de Investigación de la Inteligencia de las Máquinas, el riesgo es que una inteligencia artificial superdotada podría matar a los seres humanos. Sobre la carta firmada por Wozniak y Musk, el especialista declaró:
Esta moratoria de 6 meses sería mejor que ninguna moratoria. […] Me abstuve de firmar porque creo que la carta subestima la gravedad de la situación y pide muy poco para resolverla
Desde la perspectiva del investigador, actualmente nadie puede calcular cuáles sería los pasos que llevarían a una inteligencia artificial que rebasara por mucho la inteligencia humana. Sin embargo, es de la opinión de que el escenario más probable una vez que esta IA superdotada se desarrolle es la desaparición de la humanidad:
El resultado más probable de construir una IA sobrehumanamente inteligente, bajo cualquier circunstancia remotamente parecida a las actuales, es que, literalmente, todos en la Tierra morirán
Y explica:
No es que no puedas, en principio, sobrevivir creando algo mucho más inteligente que tú; es que requeriría precisión y preparación y nuevos conocimientos científicos
Eliezer Yudkowsky también señaló que, en dicho escenario, sin las medidas y preparación adecuadas, sería imposible que la humanidad sobreviviera. Sería como “el Australopithecus tratando de luchar contra el Homo sapiens”.
El especialista también mencionó que actualmente no existe un método para determinar si una IA es autoconsciente. Esto supondría un gran peligro pues, si por accidente una empresa creara una mente digital, no tendría forma de preveerlo.
Por último, Yudkosky señaló que muchos expertos que lo han consultado en privado le han señalado que comparten con él estos mismos temores. Por ello, el especialista propuso que el desarrollo en IA se detenga total y definitivamente:
La moratoria sobre nuevos grandes entrenamientos debe ser indefinida y mundial. No puede haber excepciones, incluso para gobiernos o militares
Y finaliza:
Si seguimos adelante con esto, todos morirán, incluidos los niños que no eligieron esto y no hicieron nada malo
Sigue leyendo:
- Musk y Especialistas en Tecnología Piden Pausa para Regular Inteligencia Artificial
- Usuarios Reportan Pláticas Extrañas con la IA de Bing