La científica de datos Frances Haugen, ex empleada de Facebook que dio a conocer documentos de la empresa a la prensa después de dejar su puesto en mayo de este año, critica la falta de transparencia en las inversiones de la empresa para combatir la desinformación y el discurso de odio en América Latina y en países como Myanmar e India. .
Facebook cuenta con sistemas de inteligencia artificial y equipos humanos que trabajan para detectar y eliminar publicaciones contrarias a las pautas de la red social. Los documentos revelados por Haugen hasta ahora muestran la dificultad de la plataforma para priorizar recursos para países fuera de América del Norte.
India, uno de los principales mercados de Meta (el nuevo nombre de Facebook Inc.), no recibe suficientes recursos para que se reconozcan los 22 idiomas oficiales del país, por ejemplo. Para Haugen, Brasil podría ser víctima del mismo problema.
«Una de las cosas que más disemina contenido violento es el hecho de que la gente lo comparte en grandes grupos. Se vuelve viral de esa manera. Sospecho que el portugués brasileño no está bien apoyado por los sistemas de seguridad», dijo. hoja por e-mail.
Se refiere a sistemas de inteligencia artificial que detectan contenido dañino y potencialmente viral en la plataforma.
En un comunicado, Meta afirma que tiene especialistas brasileños en diferentes ubicaciones y con base en todo el país y que ha invertido significativamente en personas y tecnología para aplicar sus políticas en decenas de idiomas, incluido el portugués.
«Se espera que invirtamos más de $ 5 mil millones a nivel mundial en seguridad e integridad solo en 2021, y tenemos 40,000 personas dedicadas a estas áreas», agrega.
Un informe interno de Facebook, publicado el domingo (6), recomienda examinar «seriamente por qué la violencia explícita sigue teniendo un alcance más amplio en Facebook y WhatsApp en Brasil».
La información es parte de los llamados Facebook Papers, informes internos enviados a la Comisión de Bolsa y Valores de los EE. UU. (SEC) y proporcionados al Congreso de los EE. UU. En forma editada, con nombres ocultos, por los abogados de Frances Haugen. LOS hoja es parte del consorcio de vehículos de medios que tuvieron acceso a estos documentos.
La escasa inversión de Facebook en otros países, tema ya discutido por activistas y confirmado en los documentos filtrados por Haugen, se considera una de las causas de la alta difusión de contenido violento, odioso o poco informativo en los países menos desarrollados.
Hasta 2020, la empresa no contaba con algoritmos capaces de detectar desinformación en birmano, el idioma oficial del país, según un documento. Otro archivo, informado por el New York Times, muestra que el 87% del presupuesto global de la compañía por el tiempo dedicado a clasificar la información errónea va a los Estados Unidos.
Otros documentos accedidos por hoja muestran que solo el 0,2% de la eliminación de contenido de incitación al odio en Afganistán se realizó automáticamente y que revisar el contenido de odio en general le cuesta a Facebook alrededor de 2 millones de dólares a la semana.
Ante el Parlamento británico, Haugen criticó los discursos de Facebook como «admitimos 50 idiomas» cuando la mayoría de esos idiomas, dice, tienen solo una fracción de los sistemas de seguridad que tiene el inglés estadounidense.
En un informe sobre la competitividad de Facebook publicado por hoja el domingo, la compañía dice que puede «descuidar a los países medianos, especialmente en Europa y América Latina».
Brasil aparece en una lista de países considerados prioritarios para acciones para combatir el uso nocivo de la plataforma en 2021. Se encuentra en el mismo grupo que Nicaragua, Arabia Saudita, México, Turquía, Argentina, Irán, Indonesia, Alemania, Francia y Honduras.
Tema mueve MPF en Brasil
Las autoridades brasileñas expresan la misma preocupación por invertir en herramientas de inteligencia artificial dedicadas específicamente a Brasil.
La Fiscalía Federal abrió una investigación el martes (9) y solicitó que Facebook informara qué porcentaje de la eliminación de contenido de la plataforma resulta del análisis humano, si la red opera con inteligencia artificial adaptada al idioma portugués en las acciones de detección y eliminación. de contenidos y cuánto invirtió en los últimos tres años para «mitigar las prácticas organizadas de producción y circulación de contenidos que transmiten desinformación y violencia digital en Brasil».
La investigación debe investigar la postura de las principales redes sociales y aplicaciones de mensajería en Brasil en la lucha contra las noticias falsas y la violencia digital.
En cuanto al número de usuarios activos diarios de Facebook, Brasil se encuentra en el tercer lugar del mundo, con 97 millones, solo detrás de India, con 186 millones, y Estados Unidos, con 167 millones, según otro documento interno de la empresa, este de 2019.
Otro lado
En un comunicado, Meta dice que Brasil es un país prioritario para el grupo. Además de la inversión prevista para 2021, destaca que desde 2017 ha retirado más de 150 redes que han intentado manipular el debate público, originadas en más de 50 países, incluido Brasil.
«Nuestras acciones a lo largo del tiempo muestran que luchamos contra los abusos en nuestras plataformas en Brasil», dice.
Esta semana, la compañía anunció que ha eliminado 1 millón de publicaciones con información errónea sobre Covid-19 de Facebook e Instagram desde el inicio de la pandemia. Al igual que otras plataformas, Facebook ha adoptado pautas de eliminación de contenido más sólidas para el período de urgencia sanitaria.
Noticia de Brasil
Fuente: uol.com.br