Durante al menos dos años, Meta (antes Facebook) ha discutido cómo evitar la normalización del racismo y mejorar la experiencia de los negros en la red social, pero la adopción de una política efectiva solo se aceleró después del asesinato de George Floyd en el Estados Unidos y el movimiento #BlackLivesMatter ganan prominencia mundial.
Hasta noviembre de este año, cuando la compañía anunció que medirá datos raciales, los cambios estructurales en la política de la plataforma se vieron obstaculizados por la falta de datos y la falta de acciones efectivas para apoyar a las minorías, según informes de empleados registrados en documentos internos de 2020. . y 2021.
Los informes están en los llamados Facebook Papers, documentos internos enviados a la Comisión de Bolsa y Valores de Estados Unidos (SEC) y entregados al Congreso en forma editada, con nombres ocultos, por los abogados de Frances Haugen, una ex empleada de Goal.
LOS hoja forma parte del consorcio de medios de comunicación que tuvieron acceso a estos papeles y analizaron los documentos de política racial en alianza con Núcleo Jornalismo.
Los afroamericanos se encuentran entre los grupos más comprometidos en la red social. En 2019, como muestra una encuesta interna de la propia empresa, la red social detectó que videos virales dañinos, como la brutalidad policial, impactaban incluso en la vida offline de los usuarios negros.
El estudio destaca que «los videos policiales fueron una fuente constante de estrés para los participantes negros», que incluso cambiaron el comportamiento fuera de las redes. La policía de la ciudad de Memphis ha utilizado perfiles falsos para monitorear a los activistas negros, dice el informe.
El problema también involucra la discriminación algorítmica, un desafío para muchas empresas de tecnología.
En septiembre, por ejemplo, se preguntó a algunos usuarios de la red si querían «seguir viendo videos de primates»; la etiqueta estaba vinculada a un video de un hombre negro. La recomendación del sistema de inteligencia artificial, primero programada por personas, asoció características de esa imagen con una persona negra.
«Nuestros equipos trabajan todos los días para mejorar las experiencias de las comunidades marginadas que usan Instagram y Facebook», dijo Meta en un comunicado. El grupo enfatiza que ha evaluado posibles implicaciones de derechos civiles para nuevos productos, según un informe reciente.
Tanto la discriminación por algoritmos, torcida por la imaginación de quienes los programan, como la exposición de los negros a contenidos de baja calidad fueron temas recurrentes de discusión en los últimos años. Sin embargo, el tema solo se vuelve urgente después del levantamiento antirracista en Estados Unidos, según los documentos publicados.
Días después del asesinato de Floyd, un funcionario sugirió rastrear cualquier «impacto desproporcionado» en los usuarios negros, muestra un informe. A partir de ahí, se inició una serie de discusiones sobre cómo crear una política de justicia racial para que la empresa no ayude a perpetuar el racismo sistémico.
Uno de los obstáculos para Facebook, citado en varios documentos, fue la falta de estadísticas sobre los negros para crear políticas. La red social no captura intencionalmente datos sobre la raza de los usuarios, lo que, según los empleados, dificultaría la medición.
«Si bien presumiblemente no tenemos una política diseñada para poner a las minorías en desventaja, definitivamente tenemos políticas, prácticas y comportamientos emergentes que sí lo hacen», dice un funcionario en una publicación de un grupo llamado Integrity Ideas to Combat Racial Injustice. El asesor legal de Haugen ocultó su nombre.
«Debemos estudiar exhaustivamente cómo nuestras decisiones y cómo los mecanismos de las redes sociales apoyan y no apoyan a las comunidades minoritarias», dice.
Si bien los sistemas de aprendizaje automático pueden adivinar implícitamente la raza de muchos usuarios, como destaca un interlocutor en el mismo documento, la falta de medición directa de los negros comenzó a imponerse como el objetivo a perseguir por la empresa para la creación de una política.
«Un punto de vista más cínico es que parte de la razón por la que evitamos medir la raza es porque no queremos saber qué está haciendo realmente nuestra plataforma, especialmente en Facebook. Si no puedes medirlo, no puedes actuar». dice un empleado.
Se consideró la creación de una «junta de supervisión» interna (como el consejo externo que juzga las publicaciones que caen en el área cuestionable de políticas de uso y remoción), compuesta por empleados de todo el mundo que actuaría como una «voz oficial en las deliberaciones de grupos pequeños «.
En septiembre de 2020, se publicó internamente un documento titulado «Permitir la medición de la justicia social con los CEP de EE. UU.», Que sugería métricas para identificar a los negros sin invadir la privacidad de los usuarios. Es la primera medida más práctica relacionada con los algoritmos.
La idea era hacer referencias cruzadas entre los códigos postales de EE. UU. Y los datos del censo de EE. UU. (Como el IBGE en Brasil) para medir sus productos por raza y etnia en los vecindarios correspondientes.
Para Paulo Rená, activista del Aqualtune Lab y profesor universitario, una inferencia matemática sobre una persona que vive en un determinado barrio, tiene unos ingresos determinados y un apellido puede ser una alternativa bienvenida, siempre que considere los matices.
«Tenemos que tener cuidado con estas inferencias, porque si tengo un promedio que dice que el 90% de las personas en un grupo son de una manera, eso no determina que la persona que estoy analizando estará en ese 90% y no en la 10% «, evalúa.
Casi un año después, en noviembre de este año, Meta anunció que finalmente cruzará estos datos para usarlos de forma estadística en la plataforma, lo que indica un paso hacia la política racial. Dice que consultó a más de dos docenas de expertos en derecho civil y privacidad para definir un método no invasivo y personificable.
Para el investigador indio Ramesh Srinivasan, PhD en Harvard y fundador del Laboratorio de Cultura Digital en UCLA, en California, una solución eficiente es compartir el poder de moderación de la plataforma.
Dice que Facebook no puede comportarse como una especie de caja negra de tecnología.
«No necesita publicar su código fuente, pero sí debe ceder el poder de la moderación del contenido a muchas organizaciones diferentes que tienen la experiencia para comprender los problemas raciales, los problemas de género, los problemas trans queer y los problemas geográficos», dijo. sugiere.
OTRO LADO
Buscado, Meta dice que «está en constante evolución en función de los problemas que encontramos en nuestras plataformas y los comentarios que recibimos de la comunidad». Dice que publicó un informe en noviembre que detalla su progreso en una auditoría de derechos civiles de 2020.
«El informe destaca nuestro trabajo para desarrollar un proceso de revisión para los equipos de productos, en el que evaluamos las posibles implicaciones de los nuevos productos en los derechos civiles. Una parte clave de ese esfuerzo es nuestro trabajo en estrecha colaboración con los expertos en derechos civiles. Es esencial que todas las comunidades tener experiencias positivas y seguras en nuestras plataformas, y seguiremos trabajando para lograr este objetivo ”, destaca la empresa.
Noticia de Brasil
Fuente: uol.com.br