">

Inteligencia artificial: ponente analiza reglamento – 12/05/2022 – Tec / Brasil

La inteligencia artificial está en el análisis crediticio, en los contratos de seguros, en las previsiones y decisiones que afectan a la vida de las personas, y por ello necesita ser cuidadosamente regulada, defiende Laura Schertel, ponente del Marco Jurídico de la Inteligencia Artificial.

«Termina clasificando a las personas, clasificando a los consumidores, a menudo asignando notas que identifican quién tiene el menor o el mayor riesgo de incumplimiento. Una persona puede obtener un crédito más caro debido a eso, o un seguro más caro», dice.

La comisión de juristas se instaló el 30 de marzo, luego de la aprobación del PL 872/2021 en la Cámara de Diputados. El objetivo es coadyuvar en la formulación del proyecto de ley, que se encuentra en el Senado y recibió críticas de expertos por la celeridad con la que avanzó en el Congreso.


Laura Schertel, 38

Es relatora de la comisión de juristas encargada de subsidiar la elaboración de un sustituto sobre inteligencia artificial en Brasil. Es abogada y profesora de la UnB (Universidad de Brasilia), del IDP (Instituto Brasileño de Educación, Desarrollo e Investigación) e investigadora visitante de la Universidad Goethe de Frankfurt.

Para Schertel, la regulación no debe apresurarse. “También tenemos un problema relacionado con la transparencia. Muchas veces hay dificultad para entender exactamente cuáles fueron los criterios utilizados para tomar la decisión”, dice.

Las herramientas de inteligencia artificial están presentes tanto en actividades más sencillas —esta entrevista, por ejemplo, fue transcrita por un bot (un robot programado para realizar una función) disponible en Telegram— como en actividades más complejas, como el control de coches autónomos.

El proyecto original, dice el ponente, apuntaba más a desregular que a regular presentando un texto subjetivo, sin definir una gradación para los diferentes niveles y riesgos de la inteligencia artificial.

“La regulación de la inteligencia artificial requiere una verdadera innovación jurídica: necesitamos lineamientos concretos y no solo reglas generales; necesitamos pensar en la prevención y no solo en la reparación. Toda acción regulatoria debe proteger los derechos de las personas y de la comunidad”.

La comisión generará subsidios para que el relator Eduardo Gomes (PL-TO) y el Congreso tomen una decisión, según ella. El proyecto final de los juristas deberá ser presentado dentro de los 120 días siguientes al inicio de la comisión.

¿Por qué regular la aplicación de inteligencia artificial en Brasil? Podemos entender la inteligencia artificial como un conjunto de tecnologías que utiliza una gran base de datos y busca resolver problemas cotidianos. Utilizamos estas herramientas para los más diversos sectores de la sociedad, tanto en el sector público como en el privado.

La IA se utiliza para ayudarnos a hacer predicciones, clasificar y tomar decisiones. en el área de [análise de] crédito, en el área de seguros, todas aquellas áreas donde es necesario reducir los riesgos del negocio, por ejemplo. Terminas clasificando a las personas, clasificando a los consumidores, a menudo asignando notas que identifican quién tiene el menor o el mayor riesgo de incumplimiento.

Una persona puede conseguir un crédito más caro por eso, o un seguro más caro. También tenemos un problema relacionado con la transparencia. A menudo es difícil entender exactamente qué criterios se utilizaron para tomar la decisión.

Otro problema que se ha abordado es la discriminación algorítmica. Los algoritmos que aprenden de los ejemplos que les das. Los datos pueden estar imbuidos de sesgo.

Hay dos tipos clásicos de riesgo: el primero son las pérdidas económicas, como en el caso del crédito, el segundo se refiere a los vinculados a impactos en ciertas comunidades, como la población negra o indígena, por ejemplo.

También existe un tercer riesgo, los relacionados con los sistemas automatizados como los sistemas de diagnóstico médico, las armas autónomas, los robots cuidadores, la vigilancia biométrica y los vehículos autónomos. Hablamos de aplicaciones, aún en desarrollo, cuyos posibles fallos de seguridad pueden tener graves consecuencias para la sociedad.

¿Qué se debe hacer para mitigar estos riesgos? La inteligencia artificial no es simple. Tanto es así que la regulación en el mundo aún es muy incipiente, muy inicial. En la Unión Europea tenemos una propuesta de reglamento que aún no ha sido aprobada. En Estados Unidos tenemos más iniciativas sectoriales.

Es un desafío muy grande y es curioso que en Brasil este proceso se inició en el Congreso. La comisión de juristas llega en un momento a consolidar esto.

Varias herramientas que utilizan IA están en pleno desarrollo. Si pensamos en estos autos automatizados, por ejemplo, muchas de estas herramientas aún están en fase de investigación y no se están utilizando en su totalidad, por lo que no es fácil regular algo que está en las primeras etapas de desarrollo.

¿Deberíamos hacer una ley que tenga una gradación? Ligado al reto de mitigar los riesgos, existe también otro problema regulatorio, que es el de mitigar o impedir la innovación. Me parece que uno de los grandes desafíos es cómo hacer esta regulación de manera fuerte, que garantice la protección de la persona y su dignidad.

Creo que esa es la premisa central. Es fundamental que busquemos una pluralidad, una diversidad de visiones. Esto significa que todas las personas, áreas y sectores que de alguna manera se ven afectados deben ser escuchados y deben participar en esta regulación.

Por último, también pondría la importancia de que sea coherente con las normas que tenemos. La inteligencia artificial dialoga con muchas otras normas. En primer lugar, con la LGPD (Ley General de Protección de Datos), con el Marco de Derechos Civiles en Internet y con la Ley de Acceso a la Información.

¿Cuál sería el momento ideal de discusión para que el país no se retrase en la regulación tecnológica? Cuando se trata de regulación, no hay receta de pastel. Quien marcará el ritmo será el debate público. Y estará listo cuando consigamos un equilibrio entre la protección que la sociedad legítimamente espera y que proporcione la seguridad jurídica que las empresas necesitan para innovar y desarrollar nuevos productos y servicios.

¿Y cómo garantizar la innovación y que la tecnología se adapte a la realidad brasileña? La tecnología necesita adaptarse a la realidad, creo que es un aspecto importante que no es sencillo de solucionar. Sobre todo es ser muy coherente con nuestros problemas y con nuestra realidad social.

Somos una sociedad profundamente desigual con discriminación estructural y racismo. Tenemos que pensar en la calidad de los datos y los métodos estadísticos para no perpetuar esta discriminación.

Si ya tiene estudios y más estudios que demuestran estos riesgos discriminatorios, para la sociedad brasileña este elemento es aún más relevante. Y este punto acabó por no entrar en el PL 21/20.

¿Qué faltaba en el proyecto de ley y qué puntos necesitan ser revisados? Algunos puntos del PL no fueron suficientemente discutidos. Aportó algunos principios, pero ningún procedimiento que pudiera mitigar los riesgos de la inteligencia artificial.

La pregunta es: ¿un proyecto que busca regular la inteligencia artificial no debe traer formas de mitigar estos riesgos? El proyecto también dice mucho por lo que no aporta.

Establece la responsabilidad subjetiva para todas las situaciones, incluidas las de alto riesgo. Al establecer esto, se podría decir que termina por quitar la aplicación de la responsabilidad.

También en relación con la discriminación y la transparencia, parece limitar la aplicación más que precisar o ampliar. ¿El objetivo es regular o no reglamentado? Debemos traer procedimientos y derechos, principios poco genéricos y reglas sin aplicación concreta. De hecho, la comisión generará mecanismos para que el Senado, el relator Eduardo Gomes (PL-TO) y el Congreso puedan trazar un camino hacia la regulación.

¿Cómo está el sector público y el sector privado en esta historia? ¿Cuál es el modelo de incentivos para incentivar la implementación de herramientas en ambos sectores? No tengo una respuesta para eso, pero creo que es una pregunta importante que la sociedad necesita debatir. Estas son reglas generales que se aplican, son reglas generales similares. ¿Son aplicables tanto al sector público como al privado o no, o son normas diferentes? Este es un punto relevante para ser discutido en el comité.

De hecho, hay riesgos muy específicos del sector público que creo que merecen una mirada más cercana. Entonces si pensamos en investigación criminal, seguridad pública, tienes los riesgos que son muy característicos del sector público y del proceso penal en su conjunto, porque el riesgo es la limitación y la libertad de la persona.

Finalmente, para concluir, la regulación de la inteligencia artificial requiere una verdadera innovación jurídica: necesitamos mecanismos colectivos y no solo individuales para la implementación de los derechos; lineamientos concretos y no solo reglas generales; tenemos que pensar en la prevención y no sólo en la reparación.

Toda actuación normativa debe tener en cuenta la necesidad de adaptarse a los desarrollos tecnológicos del futuro, garantizando la innovación y protegiendo los derechos de las personas y de la comunidad.

Noticia de Brasil
Fuente: uol.com.br

Salir de la versión móvil