Cuando la Corte Suprema de EE. UU. decida en los próximos meses si debilita un poderoso escudo que protege a las empresas de Internet, la decisión también podría tener implicaciones para las tecnologías en rápido desarrollo, como el chatbot de inteligencia artificial ChatGPT.
Los jueces deben decidir a fines de junio si se puede demandar a YouTube por sus recomendaciones de videos a los usuarios. El caso prueba si una ley de EE. UU. que protege a las plataformas tecnológicas de la responsabilidad legal por el contenido publicado en línea por sus usuarios también se aplica cuando las empresas usan algoritmos para dirigir recomendaciones a los usuarios.
La discusión surge porque los algoritmos que impulsan las herramientas de IA generativa como ChatGPT y su sucesor GPT-4 funcionan de manera similar a los que sugieren videos a los usuarios de YouTube, agregaron los expertos.
Representantes de OpenAI, creador de ChaGPT, y Google se negaron a comentar.
Durante una audiencia en febrero, los jueces de la Corte Suprema expresaron su incertidumbre sobre si debilitar las protecciones consagradas en la ley, conocida como la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996. Si bien el caso no está directamente relacionado con la IA generativa, el juez Neil Gorsuch señaló que Es poco probable que las herramientas que generan «poesía» y «polémica» gocen de tales protecciones legales.
«CONSECUENCIAS DE SUS PROPIAS ACCIONES»
El senador demócrata Ron Wyden, quien ayudó a redactar el proyecto de ley mientras estaba en la Cámara de Representantes, dijo que el escudo de responsabilidad no debería aplicarse a las herramientas de inteligencia artificial generativa porque esas herramientas «crean contenido».
«La sección 230 se ocupa de la protección de los usuarios y sitios web para alojar y organizar el discurso de los usuarios. La ley no debería proteger a las empresas de las consecuencias de sus propias acciones y productos», dijo Wyden en un comunicado a Reuters.
La industria tecnológica ha presionado para preservar la Sección 230 a pesar de la oposición bipartidista a la inmunidad. La industria dijo que herramientas como ChatGPT funcionan como motores de búsqueda, dirigiendo a los usuarios al contenido existente en respuesta a una consulta.
«La inteligencia artificial en realidad no está creando nada. Está tomando el contenido existente y poniéndolo en una forma o formato diferente», dijo Carl Szabo, vicepresidente y consejero general de NetChoice, un grupo de cabildeo de la industria tecnológica.
Szabo dijo que una Sección 230 debilitada presentará una tarea imposible para los desarrolladores de IA, amenazando con exponerlos a una avalancha de litigios que podrían sofocar la innovación.
Algunos expertos predicen que los tribunales pueden llegar a un término medio, examinando el contexto en el que el modelo de IA generó una respuesta potencialmente dañina.
Hany Farid, tecnólogo y profesor de la Universidad de California, Berkeley, dijo que es muy difícil argumentar que los desarrolladores de IA deberían ser inmunes a las demandas por los modelos que «programaron, entrenaron e implementaron».
«Cuando las empresas son responsables en litigios civiles por los daños causados por los productos que producen, producen productos más seguros», dijo Farid. «Y cuando no se les hace responsables, producen productos menos seguros».
El caso que decide la Corte Suprema involucra una apelación contra YouTube presentada por la familia de Nohemi González, una estudiante universitaria de 23 años de California que fue asesinada a tiros en 2015 por militantes islamistas en París.
La demanda acusa a la empresa de brindar «apoyo material» al terrorismo y dice que YouTube, a través de los algoritmos de la plataforma para compartir videos, recomendó ilegalmente videos del grupo militante Estado Islámico, que se atribuyó la responsabilidad de los ataques de París, a ciertas personas.
Noticia de Brasil
Fuente: uol.com.br