El robot conversacional ChatGPT ha puesto a la UE (Unión Europea) en una encrucijada en su esfuerzo por regular el uso de IA (Inteligencia Artificial), ya que debe crear una forma de proteger a los usuarios de una tecnología en constante cambio.
La UE lleva más de un año trabajando en una normativa que ordene el uso de la IA y, al mismo tiempo, permita proteger a los usuarios, aunque ChatGPT ha transformado la forma en que esta tecnología es vista por quienes la utilizan.
Creado por la empresa estadounidense OpenAI, ChatGPT apareció en noviembre y rápidamente comenzó a ser utilizado por usuarios asombrados con su capacidad para responder preguntas con claridad, escribir sonetos y brindar información sobre temas complicados.
Los productos impulsados por ChatGPT incluso han superado pruebas médicas y legales diseñadas para estudiantes humanos, obteniendo altas calificaciones.
Sin embargo, la tecnología también conlleva riesgos, ya que su sistema de aprendizaje y modelos competitivos similares ya están integrados en aplicaciones comerciales.
Por esta razón, la UE ha tenido que volver al punto de partida en su esfuerzo por desarrollar un marco regulatorio, hasta que encuentre la manera de regular la IA de manera efectiva.
La Comisión Europea, el brazo ejecutivo de la UE, anunció en abril de 2021, por primera vez, un plan para un conjunto de reglas de IA. El Parlamento Europeo espera finalizar un proyecto de ley de IA este mes.
El comisario europeo de Industria, Thierry Breton, anticipó que los eurodiputados, la Comisión y los gobiernos del bloque están trabajando para «aclarar aún más las reglas» sobre la tecnología ChatGPT, conocida como IA de propósito general.
desafíos reales
Los usuarios de las redes sociales se divirtieron probando ChatGPT cuando se lanzó por primera vez, pero la tecnología utilizada no es un juego.
Los maestros temen que los estudiantes usen la función para hacer trampa, ya que ChatGPT puede «escribir» ensayos completos, mientras que los legisladores temen que se use con fines de desinformación.
Las preocupaciones sobre los riesgos han sido reconocidas por altos funcionarios de la UE.
«Como lo demostró ChatGPT, las soluciones de IA pueden ofrecer grandes oportunidades para las empresas y los ciudadanos, pero también pueden presentar riesgos. Es por eso que necesitamos un marco regulatorio sólido para garantizar una IA creíble basada en datos de alta calidad», dijo Breton.
El plan es que la Comisión Europea, el Consejo Europeo -que representa a los estados miembros del bloque- y el Parlamento discutan una versión final de la ley de IA a partir de abril.
Dragos Tudorache, el eurodiputado rumano que lideró el impulso para aprobar la ley de IA en el parlamento, dijo que ChatGPT es uno de los ejemplos más conocidos de IA de propósito general, aunque existen derivados.
Usando lo que se conoce como un «modelo de lenguaje extensivo», ChatGPT es un ejemplo de IA generativa que, operando sin guía, puede crear contenido original analizando datos previos.
«Vamos a proponer un conjunto de reglas para regir la IA en general y los modelos básicos en particular», dijo Tudorache.
Varios expertos dicen que los riesgos de sistemas como ChatGPT siempre han sido claros y que las advertencias se han compartido con los expertos de la UE desde que comenzó el trabajo sobre la regulación de la IA.
«Nuestra recomendación en ese momento era que también deberíamos regular los sistemas de IA que tienen una variedad de usos», dijo Kris Shrishak, experto en tecnología del Consejo Irlandés para las Libertades Civiles.
Shrishak subrayó que la efectividad de la ley dependerá de la redacción final, pero dijo que el texto redactado «sienta una buena base» y que «cuenta con algunos mecanismos para identificar nuevos riesgos».
Un problema más apremiante sería la aplicación de la regulación, advirtió Shrishak, por lo que el Parlamento Europeo ahora se está enfocando en fortalecer ese aspecto.
Noticia de Brasil
Fuente: uol.com.br