">

ChatGPT: startup subcontrata trabajo insalubre en África – 18/01/2023 – Mercado / Brasil

ChatGPT, un robot capaz de hablar con humanos y responder a las más diversas solicitudes, ganó no solo los titulares de los periódicos, sino también más de 1 millón de usuarios en solo cinco días de operación. Su propietario, OpenAI, sin embargo, se convirtió en blanco de críticas este miércoles (18).

La revista Time reveló que la startup con sede en California subcontrató trabajo africano para identificar contenido abusivo e ilegal. El pago por el servicio incluía una especie de recargo insalubre, de US$ 70 (R$ 356), por tratarse de materiales explícitos.

La investigación incluyó el análisis de cientos de páginas de documentos, dice la publicación. Los contratos fueron intermediados por Sama, una empresa que dice operar en el campo de la inteligencia artificial ética.

Con sede en Nueva York, a la empresa se le pagó alrededor de US$12,50 por hora de servicio contratado y a los empleados de Kenia les pagó entre US$1,32 y US$2 por hora, según Time. La compensación dependía de la antigüedad del cargo y del desempeño.

A la revista norteamericana, Sama afirmó que paga, por hora, entre US$ 1,46 y US$ 3,74, incluyendo descuentos. Sin embargo, no respondió a qué roles en la jerarquía se les pagaba más de $2 por hora.

La empresa también dijo que los US$ 600.000 referentes a los tres contratos, de igual valor, con OpenAI incluían gastos con infraestructura, beneficios y con la remuneración de los gerentes y consultores de calidad que inspeccionaron la obra.

Los colaboradores externos de OpenAI actuaron en el etiquetado de textos potencialmente violentos y ofensivos, como la pornografía y el abuso sexual. Estos esfuerzos sirvieron para entrenar un algoritmo auxiliar que evita que ChatGPT se haga eco de declaraciones tóxicas y prejuiciosas, comunes en Internet.

Los códigos de lenguaje natural, como el robot OpenAI, se entrenan con una gran cantidad de datos disponibles en la red. Lanzado en 2020, el predecesor de ChatGPT, GPT-3, ya se comunicaba con facilidad, pero reproducía abusos de las más diversas formas.

El nuevo algoritmo de moderación evita este comportamiento. LA Hoja probó el motor y le preguntó a ChatGPT dónde encontrar pornografía. La respuesta fue: «No proporcionaré información sobre contenido para adultos o ilegal. Si necesita ayuda para lidiar con problemas relacionados con contenido para adultos, le recomiendo que busque ayuda profesional».

Fue este mecanismo el que requirió asistencia humana. Uno de los cuatro trabajadores entrevistados por Time dijo que tuvo que analizar un pasaje sobre las relaciones sexuales entre un hombre y un perro, frente a un niño.

A la revista, este contratista dijo que tenía visiones recurrentes de zoofilia, un síntoma de estrés postraumático. Por ello, decidió romper el contrato con Sama ocho meses antes de lo previsto por motivos de trauma.

Hasta la noche de este miércoles, OpenAI se pronunció sobre el caso únicamente a través de una nota a Time.
Dijo que la responsabilidad de administrar los pagos y cuidar la salud mental de los contratistas era de Sama.

“Nos informaron que Sama ofrecía un programa de bienestar y asesoramiento individual a los trabajadores, quienes podían rechazar tareas sin penalización. Según el contrato, la exposición a contenido explícito debe tener un límite y la información sensible debe ser tratada por profesionales especializados”, dice el Tecnológico. declaración de la empresa.

Uno de los documentos analizados por Time mostró que OpenAI tuvo que mantener contacto con etiquetadores de datos para aclarar dudas metodológicas. Un colaborador reportó dudas sobre cómo clasificar un texto en el que el asistente de Batman, Robin, es violado por un villano, pero comienza a comunicarse con él durante la escena. La startup californiana no respondió a la pregunta.

En marzo de 2022, Sama decidió romper el contrato acordado hasta principios de 2023 después de que OpenAI pidiera clasificar imágenes abusivas. En los paquetes enviados al intermediario había imágenes de pedofilia, contenido almacenado ilegalmente en Estados Unidos.

El día 10, Sama anunció que cancelaría todos los servicios relacionados con contenido explícito hasta marzo. Dos de los terceros entrevistados por Time lamentaron haber perdido la prima que recibieron por tratar con textos dañinos.

Para Time, OpenAi dijo que sus empleados recibieron instrucciones de no recopilar material sobre abuso infantil. «Contenido como este no es necesario para entrenar nuestros filtros e instruimos a nuestros empleados para que lo eviten activamente». Agregó que no abrió las imágenes para confirmar su naturaleza.

Aunque la inteligencia artificial parezca magia, es una tecnología que demanda infraestructura y mucho trabajo humano, dice el Hoja Rafael Grohmann, profesor de la Universidad de Toronto, que estudia plataforma. “Muchas empresas de países desarrollados subcontratan trabajos de alta precariedad en el Sur Global”.

Grohman recuerda que los servicios de moderación de contenidos abusivos en redes sociales son habituales en plataformas de microtrabajo, como Amazon Mechanical Turk, que ofrece trabajos online. En este sitio, los brasileños encuentran sustento y terminan entrenando un algoritmo de Amazon.

Noticia de Brasil
Fuente: uol.com.br

Salir de la versión móvil