">

Regular la inteligencia artificial es un reto en 4D – 26/05/2023 – Mercado / Brasil

Los líderes de las naciones del G7 abordaron muchas preocupaciones globales sobre las ostras Nomi al vapor el pasado fin de semana en Hiroshima: la guerra en Ucrania, la resiliencia económica, la energía limpia y la seguridad alimentaria, entre otras. Pero también arrojaron un elemento extra a su bolsa de buenas intenciones: la promoción de una inteligencia artificial inclusiva y confiable.

Si bien reconocen el potencial innovador de la IA, los líderes están preocupados por el daño que puede causar a la seguridad pública y los derechos humanos. Al lanzar el proceso de IA de Hiroshima, el G7 encargó a un grupo de trabajo que analizara el impacto de los modelos de IA generativa como ChatGPT y se preparara para las discusiones de los líderes a finales de este año.

Los desafíos iniciales serán cómo definir mejor la IA, categorizar sus peligros y enmarcar una respuesta adecuada. ¿Es mejor dejar la regulación a las agencias nacionales existentes? ¿O la tecnología es tan importante que requiere nuevas instituciones internacionales? ¿Necesitamos un equivalente moderno de la Agencia Internacional de Energía Atómica, fundada en 1957 para promover el desarrollo pacífico de la tecnología nuclear y prevenir su uso militar?

La eficacia con la que el organismo de la ONU cumplió esta misión es discutible. Además, la tecnología nuclear involucra material radiactivo e infraestructura masiva que es físicamente fácil de detectar. AI, por otro lado, es comparativamente barata, invisible, omnipresente y tiene infinitos casos de uso. Como mínimo, presenta un desafío de cuatro dimensiones que debe abordarse de manera más flexible.

La primera dimensión es la discriminación. Los sistemas de aprendizaje automático están diseñados para discriminar, para detectar discrepancias en los patrones. Esto es bueno para detectar células cancerosas en exploraciones radiológicas. Pero es malo si los sistemas de caja negra entrenados en conjuntos de datos defectuosos se utilizan para contratar y despedir trabajadores o autorizar préstamos bancarios. Prohibir estos sistemas en áreas de alto riesgo inaceptable, como propone la próxima Ley de IA de la Unión Europea, es un enfoque estricto y precautorio. La creación de auditores independientes y especializados puede ser un camino más adaptable.

En segundo lugar, la desinformación. Como advirtió el experto académico Gary Marcus al Congreso de los Estados Unidos la semana pasada, la IA generativa podría poner en peligro la democracia misma. Dichos modelos pueden generar mentiras plausibles y humanos falsos a la velocidad del rayo y a escala industrial.

Las propias empresas tecnológicas deberían asumir la carga de certificar el contenido y minimizar la información errónea, tal como suprimieron el spam en el correo electrónico. El no hacerlo solo amplificará los llamados a una intervención más drástica. Es posible que el precedente se haya sentado en China, donde un proyecto de ley atribuye la responsabilidad del mal uso de los modelos de IA al productor en lugar del usuario.

Tercero, desplazamiento. Nadie puede predecir con precisión el impacto económico que tendrá la IA en general. Pero parece bastante seguro que conducirá a la «desprofesionalización» de muchos trabajos administrativos, como dijo la empresaria Vivienne Ming en el festival FT Weekend en Washington, DC.

Los programadores de computadoras han adoptado ampliamente la IA generativa como una herramienta para mejorar la productividad. Por otro lado, los guionistas notables de Hollywood pueden ser los primeros de muchos profesionales en temer que sus habilidades básicas sean automatizadas. Esta confusa historia desafía las soluciones simples. Las naciones tendrán que adaptarse a los desafíos sociales a su manera.

Cuarto, devastación. La incorporación de la IA en los sistemas letales de armas autónomas (LAWS, por sus siglas en inglés), o robots asesinos, es una perspectiva aterradora. El principio de que los seres humanos siempre deben permanecer en el circuito de toma de decisiones solo puede establecerse y aplicarse a través de tratados internacionales. Lo mismo ocurre con la discusión sobre la inteligencia artificial general, el día (posiblemente ficticio) en que la IA superará a la inteligencia humana en todos los campos. Algunos activistas descartan este escenario como una fantasía inquietante. Pero ciertamente vale la pena prestar atención a los expertos que advierten sobre posibles riesgos existenciales y piden colaboración internacional en investigación.

Otros podrían argumentar que tratar de regular la IA es tan inútil como rezar para que el sol no se ponga. Las leyes siempre evolucionan de forma incremental, mientras que la IA se desarrolla exponencialmente. Pero Marcus dice que se sintió alentado por el consenso bipartidista para la acción en el Congreso de los Estados Unidos. Temiendo, tal vez, que los reguladores de la UE establezcan estándares globales para la IA, como lo hicieron hace cinco años con la protección de datos, las empresas tecnológicas estadounidenses también están apoyando públicamente la regulación.

Los líderes del G7 deben fomentar la competencia por las buenas ideas. Ahora necesitan desencadenar una carrera regulatoria hacia la cima, en lugar de presidir una caída desalentadora hacia el fondo.

El autor es el fundador de Sifted, una web sobre startups europeas apoyada por el FT

Noticia de Brasil
Fuente: uol.com.br

Salir de la versión móvil