En una tarde reciente, Jonas Thiel, un estudiante de socioeconomía del norte de Alemania, pasó más de una hora chateando en línea con algunos de los filósofos políticos de izquierda que estaba estudiando. Estos no eran los verdaderos filósofos, sino recreaciones virtuales, traídas a la conversación, si no a la vida, por sofisticados chatbots en un sitio web llamado Character.AI.
El favorito de Thiel era un bot que imitaba a Karl Kautsky, un socialista checo-austríaco que murió antes de la Segunda Guerra Mundial. Cuando Thiel le pidió al avatar digital de Kautsky algún consejo para los socialistas modernos que luchan por reconstruir el movimiento obrero en Alemania, el bot de Kautsky sugirió que publicaran un periódico. “Pueden usarlo no solo como un medio para difundir la propaganda socialista, que escasea en Alemania en este momento, sino también para organizar a la clase trabajadora”, dijo el robot.
El bot continuó argumentando que las clases trabajadoras eventualmente «volverían en sí» y abrazarían una revolución marxista moderna. «El proletariado se encuentra ahora en un punto bajo de su historia», escribió. «Eventualmente se darán cuenta de las fallas del capitalismo, especialmente debido al cambio climático».
En el transcurso de varios días, Thiel se reunió con otros académicos virtuales, incluidos GA Cohen y Adolph Reed Jr. Pero podría haber elegido a casi cualquiera, vivo o muerto, real o imaginario. En Character.AI, que debutó el verano pasado, los usuarios pueden chatear con réplicas razonables de personas tan variadas como la reina Isabel II, William Shakespeare, Billie Eilish o Elon Musk (hay varias versiones). Cualquiera que quieras convocar o inventar está disponible para conversar.
La empresa y el sitio web, fundados por Daniel de Freitas y Noam Shazeer, dos exinvestigadores de Google, se encuentran entre varios esfuerzos para construir un nuevo tipo de chatbot. Es posible que estos bots no conversen exactamente como un ser humano, pero a menudo lo hacen.
A fines de noviembre, el laboratorio de inteligencia artificial OpenAI, con sede en San Francisco, lanzó un bot llamado ChatGPT que hizo que más de 1 millón de personas sintieran como si estuvieran conversando con otro ser humano. Se están desarrollando tecnologías similares en Google, Meta y otros gigantes tecnológicos. Algunas empresas son reacias a compartir tecnología con el público en general. Debido a que estos bots aprenden sus habilidades de los datos publicados en línea por personas reales, a menudo producen falsedades, discursos de odio y lenguaje sesgado contra las mujeres y las personas de color. Si se usan mal, pueden convertirse en una forma efectiva de llevar a cabo el tipo de campañas de desinformación que se han vuelto comunes en los últimos años.
«Sin ninguna protección adicional, terminarán reflejando todos los sesgos y la información tóxica que ya está en la web», dijo Margaret Mitchell, exinvestigadora de IA en Microsoft y Google, donde ayudó a iniciar el equipo de IA ética. Ahora está en la startup de IA Hugging Face.
Pero otras empresas, incluida Character.AI, confían en que el público aprenderá a aceptar las fallas de los chatbots y desarrollará una sana desconfianza en lo que dicen. Thiel descubrió que los bots de Character.AI tenían talento para conversar y una habilidad especial para hacerse pasar por personas reales. «Si lees lo que escribió alguien como Kautsky en el siglo XIX, no usa el mismo lenguaje que usamos hoy», dijo. «Pero la IA de alguna manera puede traducir sus ideas al inglés moderno y sencillo».
Por ahora, estos y otros chatbots avanzados son una fuente de entretenimiento. Y se están convirtiendo rápidamente en una forma más poderosa de interactuar con las máquinas. Los expertos aún debaten si las fortalezas de estas tecnologías superarán sus fallas y daños potenciales, pero están de acuerdo en un punto: la credibilidad de la conversación ficticia seguirá mejorando.
el arte de la conversación
En 2015, Freitas, que entonces trabajaba como ingeniero de software en Microsoft, leyó un artículo de investigación publicado por científicos de Google Brain, el principal laboratorio de inteligencia artificial de Google. Al detallar lo que llamó el «Modelo neuronal de conversación», el documento mostró cómo una máquina puede aprender el arte de la conversación analizando las transcripciones de diálogos de cientos de películas.
El artículo describía lo que los investigadores de IA llaman una red neuronal, un sistema matemático modelado libremente en la red de neuronas del cerebro. Esta misma tecnología traduce entre español e inglés utilizando servicios como Google Translate e identifica peatones y señales de tránsito para autos sin conductor en las calles.
Una red neuronal aprende habilidades mediante la identificación de patrones en grandes cantidades de datos digitales. Al analizar miles de fotos de gatos, por ejemplo, puede aprender a reconocer un gato.
Cuando Freitas leyó el artículo, aún no era un investigador de IA; era un ingeniero de software que trabajaba en motores de búsqueda. Pero lo que realmente quería era llevar la idea de Google a su extremo lógico.
«Se podría decir que este robot es capaz de generalizar», dijo. «Lo que dijo no sonaba como lo que estaba en un guión de película».
Se unió a Google en 2017. Oficialmente, era ingeniero en YouTube, el sitio para compartir videos de la compañía. Pero para su proyecto «20% del tiempo», una tradición de Google que permite a los empleados explorar nuevas ideas junto con sus tareas diarias, comenzó a construir su propio chatbot.
La idea era entrenar una red neuronal utilizando una colección mucho más grande de conversaciones: montones de registros de chat seleccionados de servicios de redes sociales y otros sitios de Internet. La idea era simple, pero requeriría enormes cantidades de poder de procesamiento informático. Incluso una supercomputadora necesitaría semanas o incluso meses para analizar todos esos datos.
Como ingeniero de Google, tenía algunos créditos que le permitieron ejecutar software experimental en la vasta red de computadoras de la empresa. Pero esos créditos solo otorgarían una pequeña fracción de la potencia informática necesaria para entrenar su chatbot. Así que empezó a pedir créditos prestados a otros ingenieros; a medida que el sistema analizara más datos, sus capacidades mejorarían a pasos agigantados.
Inicialmente, entrenó su chatbot usando lo que se llama LSTM, o Long Short-Term Memory, una red neuronal diseñada en la década de 1990 específicamente para el lenguaje natural. Pero pronto cambió a un nuevo tipo de red neuronal llamada transformador, desarrollada por un equipo de investigadores de IA en Google que incluía a Noam Shazeer.
A diferencia de un LSTM, que lee el texto una palabra a la vez, un transformador puede usar múltiples procesadores de computadora para analizar un documento completo en un solo paso.
Google, OpenAI y otras organizaciones ya estaban usando transformadores para crear los llamados «modelos de lenguaje grande», sistemas adecuados para una amplia gama de tareas de lenguaje, desde escribir mensajes de Twitter hasta responder preguntas. Todavía trabajando por su cuenta, Freitas centró la idea en la conversación, alimentando su transformador con la mayor cantidad de diálogo posible.
Era un enfoque extremadamente simple. Pero, como le gusta decir a Freitas: «Soluciones simples para resultados increíbles».
El resultado en este caso fue un chatbot al que llamó Meena. Fue tan efectivo que Google Brain contrató a Freitas y convirtió su proyecto en un esfuerzo de investigación oficial. Meena se convirtió en LaMDA, abreviatura de Language Model for Dialogue Applications.
El proyecto se deslizó por primera vez en la conciencia pública a principios del verano, cuando otro ingeniero de Google, Blake Lemoine, le dijo a The Washington Post que LaMDA era sensible. Esa declaración fue una exageración, por decir lo menos. Pero la conmoción mostró cuán rápido estaban evolucionando los chatbots en los mejores laboratorios como Google Brain y OpenAI.
Google se mostró reacio a lanzar la tecnología, por temor a que su talento para la desinformación y otro lenguaje tóxico pudiera dañar la marca de la empresa. Pero para entonces, Freitas y Shazeer habían dejado Google, decididos a poner este tipo de tecnología en manos de la mayor cantidad de personas posible a través de su nueva empresa, Character.AI.
«La tecnología es útil hoy en día: para divertirse, para brindar apoyo emocional, para generar ideas, para todo tipo de creatividad», dijo Shazeer.
Diseñado para intercambios abiertos
ChatGPT, el bot lanzado por OpenAI con bombos y platillos a fines de noviembre, está diseñado para operar como un nuevo tipo de motor de preguntas y respuestas. Es muy bueno en esta función, pero el usuario nunca sabe cuándo se le ocurrirá algo al chatbot. Podría decirle que la moneda oficial de Suiza es el euro (en realidad es el franco suizo), o que la famosa rana saltadora del condado de Calaveras de Mark Twain no solo podía saltar, sino también hablar. Los investigadores de IA llaman a esta generación de falsedades «alucinaciones».
Cuando crearon Character.AI, Freitas y Shazeer tenían un objetivo diferente: una conversación abierta. Creen que los chatbots de hoy son más adecuados para este tipo de servicio, por ahora un medio de entretenimiento, fáctico o de otro tipo. Como señala el sitio web, «¡Todo lo que dicen los personajes está inventado!»
“Estos sistemas no están diseñados para la verdad”, dijo Shazeer. «Están diseñados para una conversación plausible».
Freitas, Shazeer y sus colegas no construyeron un bot que imita a Musk, otro que imita a la reina Isabel y un tercero que imita a Shakespeare. Construyeron un sistema único que puede imitar a todas estas personas y otras. Aprendió de resmas de diálogos, artículos, libros y textos digitales que describen a personas como Musk, la reina y Shakespeare.
A veces, el chatbot hace las cosas bien. A veces no. Cuando Thiel habló con un avatar que pretendía emular a Reed, el pensador político estadounidense del siglo XX, lo convirtió «en una especie de militante maoísta, lo que definitivamente no está bien».
Al igual que Google, OpenAI y otros laboratorios líderes, Freitas, Shazeer y sus colegas planean entrenar su sistema en cantidades cada vez mayores de datos digitales. Esta capacitación puede llevar meses y costar millones de dólares; también puede mejorar las habilidades del conversador artificial.
Los investigadores dicen que la rápida mejoría solo durará un tiempo. Richard Socher, ex científico jefe a cargo de IA en Salesforce, que ahora dirige una startup llamada You.com, cree que estas mejoras exponenciales comenzarán a estabilizarse en los próximos años, cuando los modelos de lenguaje alcancen un punto en el que se habrán analizado virtualmente. cada texto en internet.
Pero Shazeer dijo que el camino es mucho más largo: «Hay miles de millones de personas en el mundo generando texto todo el tiempo. La gente seguirá gastando más y más dinero para entrenar sistemas que sean cada vez más inteligentes. No estamos ni cerca del final de esta tendencia.»
Traducido por Luiz Roberto M. Gonçalves
Noticia de Brasil
Fuente: uol.com.br