Brasil fue uno de los pioneros en regular la inteligencia artificial. La Cámara de Diputados comenzó a discutir una ley en febrero de 2020, incluso antes que la Unión Europea, pero hasta ahora no ha logrado aprobar la legislación. El tema involucra intereses de empresas tecnológicas, gobiernos y consumidores.
Poco quedó del proyecto original, después de que una comisión de juristas preparara un texto sustitutorio, ampliamente aceptado por el Senado, que ahora discute la propuesta presentada por el senador Eduardo Gomes (PL-TO).
«En 20 años de congreso, este es el único tema sobre el cual, después de un mes, el experto con el que hablé sabe menos que antes», dice Gomes en una entrevista con Hoja.
La velocidad de la innovación en inteligencia artificial desafía a los formuladores de políticas. Un grupo de expertos convocado por el Senado para discutir el tema, por ejemplo, redactó el proyecto de marco regulatorio antes del aumento exponencial de popularidad en 2023 de ChatGPT, una IA que genera textos convincentes basados en instrucciones del usuario.
La propuesta de ley que se está tramitando en el Congreso adopta un enfoque normativo, con recomendaciones para diferentes formas de aplicar la inteligencia artificial: desde la puntuación para la distribución de créditos hasta el reconocimiento facial en la seguridad pública, lo que estaría prohibido. Las nuevas aplicaciones de IA no cubiertas por este texto requerirían deliberaciones futuras.
La Cámara de Diputados inició el debate en 2020 con un proyecto basado en principios: respeto a la dignidad humana, transparencia en los algoritmos y protección de datos personales. El proyecto, sin embargo, fue criticado por ser vago cuando pasó por la casa en 2021.
Los expertos señalan que es necesario tener cuidado al debatir el tema: una legislación excesivamente restrictiva podría hacer inviable el desarrollo de tecnología en el área en el país; uno muy pocos deja a los ciudadanos vulnerables a los abusos por parte de las empresas y el Estado.
Incluso el país que empezó a hablar por primera vez de inteligencia artificial —Taiwán—, allá por 2019, no pudo aprobar su propio marco regulatorio. El proyecto presentado, sin embargo, no fue evaluado por el Congreso ni se tiene certeza si sería aprobado por los legisladores.
La isla es un punto estratégico en la geografía del desarrollo de la IA: el principal productor mundial de chips y semiconductores, TSMC, tiene su sede en Taiwán y fabrica, entre otras cosas, las tarjetas de inteligencia artificial de Nvidia. Estas últimas piezas de ordenador hicieron que la empresa norteamericana alcanzara ese año un valor de mercado de 1 billón de dólares.
Los legisladores locales priorizaron el desarrollo tecnológico y aprobaron una ley que promueve empresas de tecnología de punta, incluida la IA, que exime a las empresas de la zona de ciertas normas regulatorias y tributarias.
El único país que ha aprobado un marco regulatorio sobre inteligencia artificial hasta la fecha es China, pero no lo ha hecho a través de una legislación. El organismo regulador de Internet ha elaborado medidas para regular los servicios que generan textos, imágenes o vídeos, como ChatGPT y Dall-E.
Las reglas fueron escritas en base a estudios de la Administración del Ciberespacio de China, que desde 2022 analiza si los recursos utilizados por las plataformas locales de IA son morales, éticos, transparentes y permiten la rendición de cuentas.
El gobierno chino, por otro lado, crea oportunidades para que las pequeñas empresas prueben tecnologías innovadoras sin tener que cumplir completamente con las regulaciones vigentes: el modelo se llama sandbox regulatorio y tiene como objetivo fomentar la innovación, según el profesor de derecho y especialista en Luca Belli. tecnología, de FGV.
La Unión Europea, a su vez, eligió en su propuesta un enfoque de evaluación de riesgos similar al utilizado en la protección del consumidor. Los parlamentarios del bloque esperan que las medidas entren en vigor a finales de este año.
El proyecto de ley considera la inteligencia artificial como un producto que debe pasar por procesos de evaluación y certificación antes de ingresar al mercado.
Por ejemplo, se prohíben los usos de la IA que representen riesgos calificados como inaceptables: sistemas destinados a manipular personas, explotar la vulnerabilidad de grupos específicos, recursos de scoring social e identificación biométrica en tiempo real y a distancia.
Chile, Colombia, Costa Rica, Israel, México, Panamá, Filipinas y Tailandia también discuten sus propios modelos regulatorios. Este panorama fue elaborado por el especialista estadounidense en derecho internacional Kayahan Cantekin, para la Biblioteca del Congreso de Estados Unidos. El artículo es de agosto.
En su actual liderazgo en el mercado de la inteligencia artificial, Estados Unidos no debate legislación a nivel federal. Allí, por ahora, corresponde a los estados crear estándares específicos para los recursos de inteligencia artificial.
En julio, el presidente Joe Biden recibió a las principales empresas del sector –OpenAI (desarrolladora de ChatGPT), Alphabet (propietaria de Google), Meta (propietaria de Facebook), Microsoft y otras startups destacadas– para discutir medidas de seguridad.
Los portavoces de las empresas asumieron compromisos voluntarios con la Casa Blanca para agregar marcas de agua al contenido generado por inteligencia artificial, fortalecer las pruebas y otras medidas para hacer que la tecnología sea más confiable.
Sam Altman, director ejecutivo de OpenAI, es una de las voces más activas en este debate y sostiene que regular la IA será vital para desarrollar la tecnología de forma segura, aunque el sector tecnológico es históricamente reacio a las reglas. Subraya que es un riesgo recibir la dosis equivocada al redactar la ley y obstaculizar el desarrollo económico.
«Los modelos que son 10.000 veces más potentes que el GPT-4, tan inteligentes como la civilización humana, o lo que sea, probablemente merezcan cierta regulación [para evitar abusos]», dijo Altman en un evento realizado este lunes (25).
«No quiero tener que decir, cada vez que subo a un avión, si será seguro, pero confío en que sean bastante seguros. La regulación ha sido algo positivo en ese sentido», añadió.
En total, 21 países ya cuentan con leyes que citan y regulan la inteligencia artificial en algún sentido específico. En Chile, por ejemplo, el código penal tipifica como delito el fraude y el fraude mediante IA. Suecia tiene legislación sobre coches autónomos y España contra sesgos discriminatorios en la tecnología.
Otras 13 naciones tienen decisiones judiciales que crearon jurisprudencia que guía la interpretación de la justicia en disputas sobre inteligencia artificial, desde derechos de autor hasta riesgos de privacidad. Brasil está fuera de esta lista.
Noticia de Brasil
Fuente: uol.com.br