">

Entender el racismo algorítmico, que también afecta a los negros fuera de las redes – 14/10/2022 – Tec / Brasil

El uso de filtros que aclaran la piel o afinan la nariz y el predominio de fotos de personas blancas en las búsquedas de bancos de imágenes son ejemplos del llamado racismo algorítmico.

Al igual que una receta de pastel, los algoritmos son instrucciones ingresadas por un programador para que el sistema realice una acción o logre un objetivo determinado. Para que funcionen bien, necesitan estar permanentemente capacitados en inteligencia artificial, aprendizaje automático y big data.

“Es necesario romper el paradigma de que las tecnologías son neutrales”, dice Tarcízio Silva, investigador y autor del libro “Racismo Algorítmico: Inteligencia Artificial y Redes Digitales”.

Para él, el racismo algorítmico es en gran medida responsabilidad de quienes producen tecnología, ya que muchos de estos códigos se crean a través del aprendizaje automático y se basan en las experiencias personales de programadores que en su mayoría utilizan personas blancas en sus bancos de datos y pruebas.

Uno de los problemas es el uso de tecnología de reconocimiento facial en casos e investigaciones policiales, ya que la mayoría de los sospechosos son negros, lo que puede dar lugar a identificaciones erróneas. Las aplicaciones también tienen dificultades para reconocer rostros negros.

Fue para combatir las desigualdades presentes en las plataformas digitales que la investigadora Joy Buolamwini, del MIT (Massachusetts Institute of Technology), en Estados Unidos, creó, en 2016, un proyecto llamado Algorithmic Justice League.

La idea nació cuando Joy, quien es negra, estaba desarrollando un prototipo de espejo inteligente capaz de reconocer rostros y proyectar rostros de personas inspiradoras en el reflejo.

Usando un algoritmo de reconocimiento facial, se dio cuenta de que su propio rostro no fue detectado. Fue entonces cuando tuvo la idea de tomar una máscara de fantasía blanca y volver a enfrentarse al espejo. Esta vez, la cara fue reconocida. Este y otros ejemplos con algoritmos de reconocimiento facial están en el documental «Coded Bias» (Netflix).

La Liga tiene como objetivo, a través del arte y la investigación, hacer que el ecosistema algorítmico de aprendizaje automático e IA (inteligencia artificial) sea más crítico, equitativo y responsable, así como crear conciencia sobre las implicaciones sociales de la herramienta.

Para Silvana Bahia, codirectora ejecutiva de Olabi y coordinadora de PretaLab, la iniciativa también muestra cuánto es necesario mirar las situaciones de opresión a través de las tecnologías digitales.

En este sentido, cree que la inclusión de personas diversas en este mercado es una forma importante de crear conciencia sobre los impactos del racismo algorítmico.

“Solo así tendremos la oportunidad de tener otras experiencias, experiencias que se incorporarán en el proceso de desarrollo de una determinada aplicación o en la programación de una secuencia algorítmica”, dice.

En Brasil, algunas organizaciones sociales trabajan pensando en la tecnología de forma más política e incluyente, como MariaLab, Minas Programam, Conexão Malunga e ITS Rio. También hay proyectos como el propio PretaLab, que ofrece cursos de formación y fomenta una red que conecta a mujeres negras con oportunidades en el mercado laboral tecnológico.

“Esto lo hacemos en base a tres pilares, el primero es la red de nuestra web, que reúne perfiles de más de 700 mujeres negras de diferentes áreas tecnológicas, el segundo son los cursos de formación, que buscan contribuir a impulsar la movilidad profesional. de estas mujeres. El tercero es la conexión con el mercado laboral, que quiere ser más inclusivo y ha estado buscando más talento”, explica Silvana.

Ana Cláudia Santos, de 53 años, inspirada por su hija que participó en PretaLab, decidió arriesgarse y cambiar de área profesional.

Graduada en trabajo social, dice que el entusiasmo de su hija le llamó la atención y la impulsó a inscribirse en el curso. “Cuando me seleccionaron no lo podía creer. Hoy estoy muy feliz y creo que, a través de programas como estos, las mujeres negras tienen la oportunidad de calificar en el mercado tecnológico, tal como lo estoy haciendo yo”.

Otras formas de combatir el racismo algorítmico, según el investigador Tarcízio, es ampliar las leyes que regulan el uso de datos.

“La LGPD (Ley General de Protección de Datos) garantiza la privacidad de la información de las personas tanto en el entorno físico como en el digital, pero aún es necesario incluir disposiciones antidiscriminatorias en las leyes sobre inteligencia artificial, protección de datos y establecer parámetros para el área de seguridad. público.»

Este informe fue producido a partir del contenido discutido en Lab Sociedade Digital, una asociación entre Unico, ID tech en identidad digital y Brasil de S.Paulo con el apoyo de ITS (Instituto de Tecnologia e Sociedade do Rio)

Noticia de Brasil
Fuente: uol.com.br

Salir de la versión móvil