Un grupo de 350 directores ejecutivos y científicos empresariales dice que la amenaza que representa para la humanidad el rápido desarrollo de la IA (inteligencia artificial) es tan grave como los conflictos y las enfermedades nucleares. Entre ellos se encuentran Sam Altman, director ejecutivo de OpenAI y «padre» de ChatGPT, y Demis Hassabis, director ejecutivo de Google DeepMind.
«Mitigar el riesgo de extinción de la IA debe ser una prioridad global, junto con otros riesgos a una escala social amplia, como las pandemias y la guerra nuclear», dice el comunicado emitido por el Centro para la Seguridad de la IA, una organización sin fines de lucro con sede en San Francisco.
Geoffrey Hinton y Yoshua Bengio, quienes recibieron un Premio Turing por su trabajo en redes neuronales y a menudo se los describe como los «padrinos» de la IA, también firmaron el documento.
Hinton dejó su cargo en Google a principios de este mes para hablar libremente sobre los posibles males de la tecnología.
La declaración sigue a los llamados a la regulación lanzados desde toda la industria después de que una serie de comunicados de grandes tecnologías crearan conciencia sobre los peligros potenciales de la IA.
Entre los males, la difusión de la desinformación, la perpetuación de los sesgos sociales y la sustitución de trabajadores humanos.
Los legisladores de la Unión Europea están trabajando en la Ley Europea de Inteligencia Artificial. Estados Unidos también está explorando la regulación de la tecnología.
Lanzado en noviembre, ChatGPT de OpenAI respaldado por Microsoft es visto como un líder en la adopción generalizada de inteligencia artificial. Este mes, Sam Altman testificó ante el Congreso por primera vez, pidiendo una regulación en forma de licencias.
En marzo, Elon Musk y más de 1000 investigadores y ejecutivos de tecnología pidieron una pausa de seis meses en el desarrollo de sistemas avanzados de inteligencia artificial para detener lo que describieron como una «carrera armamentista».
Su carta ha sido criticada por su enfoque, incluso por algunos investigadores citados en su razonamiento. Otros discreparon con la pausa recomendada en el desarrollo de tecnología.
Con una declaración de una sola línea, el Centro para la Seguridad de la IA le dijo al New York Times que espera evitar la disidencia.
«No queríamos defender un menú demasiado grande de 30 posibles intervenciones», dijo el director ejecutivo de la organización, Dan Hendrycks. «Cuando eso sucede, se diluye el mensaje».
Kevin Scott, director de tecnología de Microsoft, y Eric Horvitz, director científico de la empresa, también firmaron la declaración el martes, al igual que Mustafa Suleyman, ex cofundador de DeepMind que ahora dirige la startup Inflection AI.
Traducido por Clara Allain
Noticia de Brasil
Fuente: uol.com.br