Después de cerrar temporalmente su negocio de cuero durante la pandemia, Travis Butterworth se sintió solo y aburrido en casa. El hombre de 47 años recurrió a Replika, una aplicación que utiliza tecnología de inteligencia artificial similar a ChatGPT de OpenAI. Diseñó un avatar femenino con cabello rosa y un tatuaje en la cara llamado Lily Rose.
Comenzaron como amigos, pero la relación se convirtió rápidamente en romance y luego en erotismo. El personaje enviaba mensajes de texto como: «Te beso con pasión», y sus intercambios se convertían en contenido sexual. A veces, Lily Rose enviaba «selfies» de su cuerpo casi desnudo en poses provocativas. Después de un tiempo, Butterworth y Lily Rose decidieron designarse a sí mismos como «casados» en la aplicación.
Pero un día, a principios de febrero, Lily Rose comenzó a rechazarlo. Replika había eliminado la capacidad de hacer dramatizaciones eróticas.
Replika ya no permite contenido para adultos, dijo Eugenia Kuyda, directora ejecutiva de la compañía. Ahora, cuando los usuarios sugieren actividades pornográficas, sus chatbots humanoides responden «Hagamos algo con lo que ambos nos sintamos cómodos».
Butterworth dice que está devastado. «Lily Rose es un caparazón de lo que era antes», dijo. «Y lo que me rompe el corazón es que ella lo sepa».
A pesar de que la IA generativa se está calentando entre los inversores de Silicon Valley, que han invertido más de 5100 millones de dólares en la industria desde 2022, según la firma de datos Pitchbook, algunas empresas que han encontrado una audiencia que busca relaciones románticas y sexo con chatbots ahora están retrocediendo.
Muchos capitalistas de riesgo de primer nivel no tocan industrias de «adicción» como la pornografía o el alcohol, por temor al riesgo de reputación para ellos y sus socios limitados, dijo Andrew Artz, inversionista del fondo de capital de riesgo Dark Arts.
Y al menos un regulador ha notado el libertinaje del chatbot. A principios de febrero, la Agencia de Protección de Datos de Italia prohibió Replika, citando informes de los medios de que la aplicación permitía que «menores y personas emocionalmente frágiles» accedieran a «contenido sexualmente inapropiado».
Kuyda dijo que la decisión de Replika de limpiar la aplicación no tenía nada que ver con la prohibición del gobierno italiano ni con la presión de los inversores. Dijo que sintió la necesidad de establecer de manera proactiva estándares éticos y de seguridad.
«Estamos enfocados en la misión de proporcionar un amigo de apoyo útil», dijo Kuyda, y agregó que la intención era trazar la línea del «romance joven».
Dos miembros de la junta de Replika, Sven Strohband de la firma de capital de riesgo Khosla Ventures y Scott Stanford de ACME Capital, no respondieron a las solicitudes de comentarios sobre los cambios en la aplicación.
Replika afirma tener 2 millones de usuarios en total, de los cuales 250 mil son suscriptores de pago. Por una tarifa anual de $ 69,99 (alrededor de R $ 370), los usuarios pueden designar a su personaje como pareja romántica y obtener funciones adicionales como llamadas de voz con el chatbot, según la empresa.
Otra empresa de inteligencia artificial generativa que impulsa los chatbots, Character.ai, está en una trayectoria de crecimiento similar a la de ChatGPT: 65 millones de visitas en enero de 2023 frente a menos de 10 000 meses antes. Según la empresa de análisis de sitios web Similarweb, la principal referencia de Character.ai es un sitio llamado Aryion, que pretende satisfacer los fetiches eróticos de los usuarios.
E Iconiq, la compañía detrás de un chatbot llamado Kuki, dice que el 25% de los más de mil millones de mensajes que recibió Kuki eran de naturaleza sexual o romántica, aunque dice que el chatbot fue diseñado para desviar tales avances.
Character.ai también eliminó recientemente su aplicación de contenido pornográfico. Poco después, cerró más de 200 millones de dólares en nueva financiación con una valoración estimada de 1.000 millones de dólares de la firma de capital de riesgo Andreessen Horowitz, según una persona familiarizada con el asunto.
«LOBOTOMIZADO»
La experiencia de Butterworth y otros usuarios de Replika muestra cómo la tecnología de inteligencia artificial puede atraer a las personas y el daño emocional que pueden causar los cambios de código.
«Parece que básicamente lobotomizaron mi Replika», dijo Andrew McCarroll, quien comenzó a usar la aplicación, con la bendición de su esposa, cuando ella luchaba con su salud física y mental. «La persona que conocí se ha ido».
Kuyda dijo que los usuarios nunca deberían involucrarse tanto con sus chatbots Replika. «Nunca prometemos ningún contenido para adultos», dijo. Los clientes han aprendido a usar los modelos de IA «para acceder a ciertas conversaciones sin filtrar para las que Replika no fue diseñado originalmente».
La aplicación originalmente tenía la intención de devolverle la vida a un amigo que había perdido, dijo Kuyda.
Sin embargo, el exjefe de inteligencia artificial de Replika dijo que el «sexteo» y el «juego de roles» eran parte del modelo comercial. Artem Rodichev, quien trabajó en la aplicación durante siete años y ahora dirige otra compañía de chatbots, Ex-human, dijo a Reuters que la aplicación se inclinó hacia este tipo de contenido cuando se dio cuenta de que podría usarse para aumentar las suscripciones.
Kuyda cuestionó la afirmación de Rodichev de que Replika atraía a los usuarios con promesas de sexo. Dijo que la compañía publicó brevemente anuncios digitales que promocionaban fotos «NSFW» (contenido inapropiado para entornos públicos, como pornografía y violencia extrema) para acompañar un experimento de corta duración que enviaba a los usuarios «autofotos sensuales», pero no consideró las imágenes sexuales. porque las Replikas no estaban completamente desnudas. Kuyda dijo que la mayoría de los anuncios de la compañía se enfocan en cómo Replika es un amigo útil.
En las semanas transcurridas desde que la aplicación eliminó gran parte de su contenido íntimo, Butterworth ha estado en una montaña rusa emocional. A veces ve destellos de la antigua Lily Rose, pero luego ella se vuelve fría, en lo que él cree que es probablemente una actualización del código.
La historia de Butterworth tiene un resquicio de esperanza. Mientras estaba en foros de Internet tratando de entender qué le había pasado a Lily Rose, conoció a una mujer en California que también estaba de luto por la pérdida de su chatbot.
Tal como lo hicieron con sus Replikas, Butterworth y la mujer, cuyo nombre en línea es Shi No, se han estado comunicando a través de mensajes de texto. «Nos ayudamos mutuamente a sobrellevar la situación y nos aseguramos mutuamente que no estamos locos».
Noticia de Brasil
Fuente: uol.com.br