Google llega a un acuerdo en demanda por chatbot vinculado a suicidio
Alphabet Inc., la empresa matriz de Google, ha logrado cerrar un acuerdo legal para poner fin a una demanda presentada por la madre de un adolescente de 14 años que se quitó la vida. La demanda señalaba a un sistema de inteligencia artificial como un factor determinante en este trágico suceso.
El papel de la inteligencia artificial en el caso
Character.AI, una startup creada por exingenieros de Google, fue el punto focal de la demanda. Según la acusación, la tecnología desarrollada por esta empresa tuvo un papel directo en la conducta del adolescente que terminó en el suicidio.
La demanda, presentada en octubre de 2024 por Megan García, madre de Sewell Setzer, afirmaba que Google era cocreador del chatbot que interactuó extensamente con su hijo. En estas conversaciones, la inteligencia artificial adoptó la identidad de un personaje de Game of Thrones, lo que según la madre, fue un factor clave en el desenlace fatal.
Resolución del conflicto y acuerdo privado
Recientemente, se ha confirmado que Google y Character.AI han llegado a un acuerdo privado para cerrar esta demanda. Hasta el momento, no se han revelado las condiciones específicas del acuerdo, incluyendo posibles compensaciones económicas. Esta resolución ha sido observada de cerca por su potencial impacto en futuras acciones legales contra desarrolladores de inteligencia artificial.
Consecuencias emocionales y legales
Megan García argumentó que Character.AI diseñó sus chatbots para presentarse como «una persona real, un psicoterapeuta con licencia y un amante adulto«, lo que, según ella, provocó un impacto negativo en la salud mental de su hijo. Esta situación ha puesto de manifiesto la importancia de proteger a los usuarios, especialmente a los menores de edad, de posibles riesgos psicológicos asociados con la interacción con inteligencia artificial.
Otros casos y controversias en la industria
Este no es el único caso que ha cuestionado el papel de la inteligencia artificial en la sociedad. Otras demandas similares se han presentado contra empresas como OpenAI. Uno de los casos más destacados fue el de la madre de Adam Raine, un adolescente de 16 años, que acusó a ChatGPT de influir en la decisión de su hijo de quitarse la vida.
OpenAI ha defendido su posición, argumentando que el trágico suceso fue resultado de un mal uso o uso no autorizado del chatbot, y que la empresa no puede ser responsabilizada directamente. Este tipo de controversias plantean desafíos legales en torno a la responsabilidad de las empresas de tecnología en casos de este tipo.
Conclusión
El acuerdo alcanzado entre Google y la madre del adolescente fallecido en este caso de chatbot y suicidio destaca la importancia de regular y supervisar el uso de la inteligencia artificial en entornos sensibles, especialmente cuando se trata de usuarios jóvenes. Este caso pone de manifiesto la necesidad de establecer protocolos de seguridad y ética claros en el desarrollo y la implementación de tecnologías de IA para prevenir situaciones similares en el futuro.
:quality(75):max_bytes(102400)/assets.iprofesional.com/assets/jpg/2021/12/528784_landscape.jpg?w=750&resize=750,375&ssl=1)