La IA (inteligencia artificial) podría llevar a la humanidad a la extinción, según han advertido los expertos, incluidos los jefes de OpenAI y Google Deepmind.
Decenas apoyaron un comunicado publicado en la página del Center for AI Safety (o Artificial Intelligence Security Center, en traducción), una ONG de investigación y desarrollo con sede en San Francisco, en Estados Unidos.
“Mitigar el riesgo de extinción de la IA debe ser una prioridad global, junto con otros riesgos a escala social como las pandemias y la guerra nuclear”, señala la carta abierta.
Pero otros dicen que los temores son exagerados.
El texto del Center for AI Safety sugiere una serie de posibles escenarios de desastre:
- Las IA pueden estar armadas, por ejemplo, con herramientas para descubrir drogas que pueden usarse para construir armas químicas;
- El poder de la IA puede concentrarse cada vez más en unas pocas manos, lo que permite que «los regímenes impongan valores estrictos a través de una vigilancia generalizada y una censura opresiva»;
Geoffrey Hinton, quien emitió una advertencia anterior sobre los riesgos de la IA superinteligente, también apoyó la carta del Centro para la Seguridad de la IA.
Yoshua Bengio, profesor de Ciencias de la Computación en la Universidad de Montreal, Canadá, también firmó el manifiesto.
Hinton, Bengio y el profesor de la Universidad de Nueva York (NYU) Yann LeCunn a menudo se describen como los «padrinos de la IA» por el trabajo innovador que han realizado en este campo, y por el cual ganaron conjuntamente el Premio Turing 2018, que reconoce las contribuciones. excepcional en informática.
Pero el profesor LeCunn, que también trabaja en Meta, la empresa propietaria de Facebook, dijo que esas advertencias del fin del mundo eran «exageradas» y que «la reacción más común de los investigadores de IA ante estas profecías de fatalidad es la vergüenza».
Muchos otros expertos también creen que el miedo a que la IA acabe con la humanidad no es realista y es una distracción de problemas como el sesgo hacia los sistemas, que ya son un problema.
Arvind Narayanan, científico informático de la Universidad de Princeton en los EE. UU., le dijo a la BBC que los escenarios de desastres de ciencia ficción no son realistas.
«La IA actual no es lo suficientemente capaz para que estos riesgos se materialicen. Como resultado, desvía la atención de los daños a corto plazo de la IA», reconoce.
Elizabeth Renieris, investigadora principal del Instituto de Ética en IA de la Universidad de Oxford en el Reino Unido, le dijo a BBC News que le preocupan los riesgos más cercanos.
«Los avances en IA ampliarán la toma de decisiones automatizada que es sesgada, discriminatoria, excluyente o injusta. Mientras sea inescrutable e indiscutible», cree.
Estos avances «podrían estimular un aumento exponencial en el volumen y la difusión de la desinformación, fracturando así la realidad y erosionando la confianza pública, además de generar una mayor desigualdad, particularmente para aquellos que permanecen en el lado equivocado de la brecha digital».
Muchas herramientas de IA esencialmente se «cargan a cuestas» de «toda la experiencia humana hasta la fecha», señala Renieris.
Muchas de estas tecnologías están entrenadas en contenido, texto, arte y música creados por humanos, y sus creadores «han transferido efectivamente una enorme riqueza y poder de la esfera pública a un pequeño puñado de entidades privadas».
pausa solicitada
La cobertura de prensa de la supuesta amenaza «existencial» de la IA ha aumentado desde marzo de 2023, cuando expertos, incluido el propietario de Tesla, Elon Musk, firmaron una carta abierta en la que pedían detener el desarrollo de la próxima generación de tecnología de IA.
Esa carta preguntaba si deberíamos «desarrollar mentes no humanas que eventualmente nos superen en número, sean más astutas, obsoletas y nos reemplacen».
En contraste, la nueva carta publicada por los expertos tiene una declaración muy breve, destinada a «abrir la discusión».
La declaración compara el riesgo con el que representa una guerra nuclear.
En una publicación de blog, OpenAI sugirió recientemente que la superinteligencia podría regularse de manera similar a la energía nuclear.
«Es probable que eventualmente necesitemos algo como un OIEA (Agencia Internacional de Energía Atómica) para los esfuerzos de superinteligencia», escribió la compañía.
Análisis cuidadosos
Sam Altman y el director ejecutivo de Google, Sundar Pichai, se encuentran entre los líderes tecnológicos que discutieron recientemente la regulación de la IA con el primer ministro británico, Rishi Sunak.
Hablando con los periodistas sobre la última advertencia de riesgo de IA, Sunak enfatizó los beneficios de la tecnología para la economía y la sociedad.
«Usted ha visto que recientemente la IA ayudó a personas paralizadas a caminar y descubrió nuevos antibióticos, pero debemos asegurarnos de que esto se haga de una manera segura», dijo.
«Es por eso que me reuní la semana pasada con los directores ejecutivos de las principales empresas de inteligencia artificial para discutir qué barreras debemos implementar y qué tipo de regulaciones deben implementarse para mantenernos a salvo».
«La gente estará preocupada por los informes de que la IA plantea riesgos existenciales como pandemias o guerras nucleares. Pero quiero que se aseguren de que el gobierno está analizando esto con mucho cuidado».
Sunak dijo que recientemente había discutido el tema con otros líderes en la cumbre del G7 en Japón y que lo abordaría nuevamente con representantes estadounidenses en breve.
La cumbre de países más ricos incluso creó recientemente un grupo de trabajo sobre IA.
Este texto fue publicado originalmente aquí.
Noticia de Brasil
Fuente: uol.com.br