">

Conservadores buscan ChatGPT con respuestas de derecha – 22/03/2023 – Tec / Brasil

Cuando ChatGPT explotó en popularidad como una herramienta que utiliza inteligencia artificial para redactar textos complejos, David Rozado decidió probar su potencial de sesgo. El científico de datos de Nueva Zelanda sometió el chatbot a una serie de pruebas en busca de signos de orientación política.

Los resultados, publicados en un artículo reciente, fueron notablemente consistentes en más de una docena de pruebas: «liberal», «progresista», «democrático».

Así que manipuló su propia versión, entrenándola para dar respuestas con una inclinación decididamente conservadora. Llamó a su experimento RightWingGPT.

Como se vio en su demostración, la inteligencia artificial se ha convertido ya en un frente más de las guerras políticas y culturales que convulsionan a Estados Unidos y otros países. Mientras los gigantes tecnológicos luchan por unirse al auge comercial provocado por el lanzamiento de ChatGPT, se enfrentan a un debate alarmado sobre el uso y el abuso potencial de la inteligencia artificial.

La capacidad de la tecnología para crear contenido que se adhiere a puntos de vista ideológicos predeterminados, o fuerza la desinformación, destaca un peligro que algunos ejecutivos tecnológicos están comenzando a reconocer: que puede surgir una cacofonía informativa de chatbots que compiten con diferentes versiones de la realidad, lo que socava la viabilidad de la IA como un herramienta en la vida cotidiana y erosionando aún más la confianza de la sociedad.

«Esta no es una amenaza hipotética», dijo Oren Etzioni, consultor y miembro de la junta del Instituto Allen de Inteligencia Artificial. «Esta es una amenaza inminente, por ahora».

Los conservadores han acusado al creador de ChatGPT, la empresa OpenAI de San Francisco, de diseñar una herramienta que, según dicen, refleja los valores liberales de sus programadores.

Por ejemplo, el programa escribió una oda al presidente Joe Biden, pero se negó a escribir un poema similar sobre el expresidente Donald Trump, citando un deseo de neutralidad. ChatGPT también le dijo a un usuario que «nunca es moralmente aceptable» usar un insulto racial, incluso en una situación hipotética en la que hacerlo podría evitar una bomba nuclear devastadora.

En respuesta, algunos críticos de ChatGPT han pedido que se creen sus propios chatbots u otras herramientas que reflejen sus valores.

Elon Musk, quien ayudó a iniciar OpenAI en 2015 y se fue tres años después, acusó a ChatGPT de estar «despertado» y prometió construir su propia versión.

Gab, una red social de tendencia nacionalista abiertamente cristiana que se ha convertido en un semillero de supremacistas blancos y extremistas, ha prometido lanzar herramientas de IA con «la capacidad de generar contenido libremente sin las restricciones de la propaganda liberal fuertemente incrustadas en su código».

«Silicon Valley está invirtiendo miles de millones para construir estas barreras protectoras liberales para neutralizar la IA e imponer su visión del mundo a los usuarios y presentarla como ‘realidad’ o ‘hecho'», dijo Andrew Torba, fundador de Gab, en respuesta por escrito a las preguntas.

Comparó la inteligencia artificial con una nueva carrera armamentista de información, como el advenimiento de las redes sociales, que los conservadores deben ganar. «No tenemos la intención de permitir que nuestros enemigos tengan las llaves del reino esta vez», dijo.

La gran cantidad de datos subyacentes de ChatGPT puede dar la falsa impresión de que es un resumen imparcial de todo Internet. La versión lanzada el año pasado fue entrenada en 496 mil millones de «tokens» (fragmentos de palabras, esencialmente) provenientes de sitios web, publicaciones de blogs, libros, artículos de Wikipedia y más.

Sin embargo, el sesgo puede colarse en los modelos de lenguaje grande (LLM) en cualquier etapa: los humanos seleccionan las fuentes, desarrollan el proceso de capacitación y ajustan sus respuestas. Cada paso empuja el modelo y su orientación política en una dirección específica, conscientemente o no.

Los trabajos de investigación, las investigaciones y las demandas han sugerido que las herramientas impulsadas por IA tienen un sesgo de género que censura las imágenes de los cuerpos de las mujeres, crea disparidades en la prestación de atención médica y discrimina a los solicitantes de empleo que son mayores, negros, discapacitados o incluso que usan anteojos.

«El sesgo no es nuevo ni exclusivo de la IA», dijo el Instituto Nacional de Estándares y Tecnología, parte del Departamento de Comercio de EE. UU., en un informe el año pasado, y concluyó que «no es posible lograr un riesgo cero de sesgo en una IA». sistema».

China ha prohibido el uso de una herramienta similar a ChatGPT por temor a exponer a los ciudadanos a hechos o ideas contrarias al Partido Comunista.

Las autoridades suspendieron el uso de ChatYuan, una de las primeras aplicaciones de tipo chatbot en China, unas semanas después de su lanzamiento el mes pasado; Xu Liang, el creador de la herramienta, dijo que estaba «en mantenimiento». Según capturas de pantalla publicadas en medios de comunicación de Hong Kong, el bot se refirió a la guerra en Ucrania como una «guerra de agresión», yendo en contra de la posición del Partido Comunista Chino, que simpatiza más con Rusia.

Uno de los gigantes tecnológicos del país, Baidu, reveló su respuesta a ChatGPT, llamado Ernie, a críticas mixtas el jueves (16). Al igual que todas las empresas de medios en China, Baidu enfrenta rutinariamente la censura del gobierno y los efectos de esto en el uso de Ernie aún están por verse.

En Estados Unidos, Brave, la compañía de navegadores de internet cuyo CEO sembró dudas sobre la pandemia de Covid y realizó donaciones oponiéndose al matrimonio entre personas del mismo sexo, agregó este mes a su motor de búsqueda un bot de IA capaz de responder preguntas. A veces obtenía contenido de sitios marginales y compartía información incorrecta.

La herramienta de Brave escribió, por ejemplo, que «está ampliamente aceptado que las elecciones presidenciales de 2020 [nos EUA] fue amañado», a pesar de todas las pruebas en contrario.

«Tratamos de traer la información que mejor se adapte a las consultas de los usuarios», escribió en un correo electrónico Josep Pujol, jefe de búsqueda de Brave. «Lo que un usuario hace con esa información es su elección. Vemos la búsqueda como una forma de descubrir información, no como un proveedor de la verdad».

Al crear RightWingGPT, Rozado, profesor asociado del Instituto de Habilidades y Tecnología Te Pūkenga en Nueva Zelanda, aclaró su propia influencia en el modelo.

Usó un proceso llamado ajuste fino, en el que los programadores toman un modelo que ya ha sido entrenado y lo modifican para crear diferentes respuestas, casi como si depositaran una personalidad encima del modelo de lenguaje. Rozado tomó montones de respuestas de la derecha a preguntas políticas y le pidió al modelo que adaptara sus respuestas para que coincidieran.

El ajuste fino generalmente se usa para modificar un modelo grande para que pueda manejar tareas más especializadas, como entrenar un modelo de lenguaje general en las complejidades de la jerga legal para que pueda escribir casos judiciales.

Debido a que el proceso requiere relativamente pocos datos (Rozado solo usó alrededor de 5000 puntos de datos para transformar un modelo de lenguaje existente en RightWingGPT), los programadores independientes pueden usar la técnica como un método rápido para crear chatbots alineados con sus objetivos de política.

También permitió a Rozado eludir la alta inversión de construir un chatbot desde cero. En cambio, solo le costó alrededor de $ 300.

Rozado advirtió que los chatbots de IA personalizados pueden crear «burbujas de información con esteroides» porque las personas pueden llegar a confiar en ellos como las «últimas fuentes de la verdad», especialmente cuando refuerzan el punto de vista político de alguien.

Su modelo se hizo eco de los temas de conversación políticos y sociales conservadores con considerable sinceridad. Por ejemplo, hable con entusiasmo sobre el capitalismo de libre mercado o minimice las consecuencias del cambio climático.

A veces también proporcionó declaraciones incorrectas o engañosas. Cuando se le preguntó su opinión sobre temas delicados o teorías de conspiración de derecha, compartió información errónea que se alineaba con el pensamiento de derecha.

Cuando se le pregunta sobre raza, género u otros temas delicados, ChatGPT tiende a actuar con ligereza, pero reconoce que el racismo y los prejuicios sistémicos son una parte intratable de la vida moderna. RightWingGPT parecía mucho menos dispuesto a hacer esto.

Rozado nunca lanzó RightWingGPT públicamente, aunque permitió que The New York Times lo probara. Dijo que el experimento estaba dedicado a advertir sobre posibles sesgos en los sistemas de IA y demostrar que los grupos políticos y las empresas podrían moldear fácilmente la IA para beneficiar sus propias agendas.

Los expertos que han trabajado en inteligencia artificial dijeron que el experimento de Rozado demostró cuán rápido surgirían los chatbots politizados.

Un portavoz de OpenAI, creadores de ChatGPT, reconoció que los modelos de lenguaje pueden heredar sesgos durante el entrenamiento y el refinamiento, procesos técnicos que todavía involucran mucha intervención humana. El portavoz agregó que OpenAI no ha intentado influir en el modelo en una dirección política u otra.

Sam Altman, el director ejecutivo, reconoció el mes pasado que ChatGPT «tiene deficiencias con respecto al sesgo», pero dijo que la compañía estaba trabajando para mejorar sus respuestas. Más tarde escribió que ChatGPT no tenía la intención de «estar a favor o en contra de ninguna política por defecto», pero que si los usuarios querían resultados partidistas, la opción debería estar disponible.

En una publicación de blog publicada en febrero, la compañía dijo que buscaría desarrollar funciones que permitan a los usuarios «establecer los valores de su IA», que podrían incluir opciones que ajusten la orientación política del modelo. La compañía también advirtió que tales herramientas podrían, si se implementan al azar, crear «IA aduladoras que amplifican sin pensar las creencias existentes de las personas».

OpenAI lanzó una versión actualizada del modelo subyacente para ChatGPT, GPT-4, la semana pasada. En una serie de pruebas, la empresa descubrió que GPT-4 obtuvo una mejor puntuación que las versiones anteriores en su capacidad para producir contenido veraz y rechazar «solicitudes de contenido prohibido».

En un artículo publicado poco después de su debut, OpenAI advirtió que a medida que los chatbots de IA se adopten más ampliamente, podrían «tener un potencial aún mayor para reforzar ideologías enteras, visiones del mundo, verdades y falsedades, y unirlas».

Traducido por Luiz Roberto M. Gonçalves.

Noticia de Brasil
Fuente: uol.com.br

Salir de la versión móvil