Hace unas tres semanas, el Parlamento del Reino Unido invitó a dos investigadores de la Universidad de Oxford a hablar sobre los riesgos de la inteligencia artificial (IA). El encuentro se produjo tras la aparición de ChatGPT, que encandiló a personas de todo el mundo.
La característica ha sido promocionada como una nueva revolución digital. Pero en el Palacio de Westminster, el profesor Michael Osborne y su alumno Michael Cohen ofrecieron algunos ejemplos desastrosos del mal uso de la IA. Si se le pidiera a tal sistema que erradicara el cáncer, por ejemplo, podría encontrar que matar a todos los seres humanos sería un medio válido para eliminar la enfermedad.
En otra parte, la pareja comparó la amenaza de la IA con la de las armas nucleares. En una entrevista con Hoja, Osbourne detalla cómo puede suceder esto y revela que la IA puede volverse consciente de sí misma.
La historia de máquinas autosuficientes que dominan la Tierra y tratan de extinguir a la raza humana, contada en películas y libros de ciencia ficción, podría suceder a partir de ¿verdadero? Estamos viendo que la inteligencia artificial se ha vuelto muy poderosa muy rápidamente, especialmente en la forma de ChatGPT, que demuestra algunos grados de razonamiento e inteligencia. Necesitamos pensar seriamente en cómo se verá esta tecnología en el futuro: estoy pensando en la difusión de información errónea, los posibles impactos en los trabajos, el discurso intolerante, las preocupaciones por la privacidad.
¿Se está volviendo la IA consciente de sí misma? No creo que sea imposible que la inteligencia artificial se vuelva consciente, aunque incluso los algoritmos más avanzados están lejos del nivel de sofisticación de un ser humano. Pero a largo plazo, no creo que haya ningún obstáculo fundamental para que una IA desarrolle una autoconciencia y capacidades muy avanzadas de planificación y razonamiento.
Hace seis meses, Google despidió a un ingeniero que dijo que la IA en la que estaba trabajando había cobrado conciencia. ¿Qué piensas sobre esto? Esto fue en LaMDA [modelo de linguagem para aplicativos de diálogo]. Lo primero es que el ingeniero estaba equivocado. Todos los que trabajamos en este campo podemos decir eso. Los modelos de lenguaje están muy lejos de ser conscientes. No entienden el mundo que les rodea como lo hacen los humanos.
Pero me alegro de que el ingeniero haya hablado. Necesitamos proteger a los denunciantes como este y crear un marco en el que aquellos que trabajan en estas tecnologías en grandes empresas no transparentes como Google puedan salir públicamente y declarar que tienen preocupaciones legítimas sin ser castigados por ello.
¿Es la amenaza de la IA peor que la de las armas nucleares? Hay peligros comunes. La IA, como la energía nuclear, es lo que llamamos una tecnología de doble uso: es decir, tiene aplicaciones civiles y militares.
La energía nuclear es una perspectiva emocionante para lograr el fin de las emisiones de carbono. Pero también se puede utilizar como arma. También hay enormes ventajas para la IA. Pero la IA también se utiliza como un medio para dirigir drones al objetivo.
¿Es posible que la IA haga daño sin tener la intención de hacerlo? Para que la IA funcione, tenemos que presentar un propósito, especificar qué debe hacer. Y, por supuesto, lo que decimos puede no ser lo que realmente queremos.
Aquí hay un ejemplo que podría ayudar: en 1908, The New York Times informó la historia de un perro en París que vivía a orillas del Sena, rescató a un niño del río y fue recompensado con un bistec. Y todos estaban encantados, por supuesto. Entonces sucedió de nuevo. El perro sacó a otro niño del río y consiguió otro bistec. Y luego otra vez. Guau. Entonces se hizo una investigación y resultó que el perro estaba empujando a los niños al río para que pudieran obtener su bistec como recompensa. Si no entendemos los objetivos que establecemos para la IA, podemos generar un comportamiento muy problemático.
La gente está asombrada con ChatGPT. ¿Cuál será el impacto de esto en la vida cotidiana? Es probable que ChatGPT y modelos de lenguaje similares tengan el nivel de impacto que los motores de búsqueda [como a busca do Google] tenía.
En cierto modo, GPT puede ser un competidor para los motores de búsqueda. Pero no es perfecto: no siempre puede confiar en la información que le brinda, al igual que no siempre puede confiar en la información que devuelve su motor de búsqueda. Con el tiempo, nos acostumbramos a este hecho y encontramos formas de usar los motores de búsqueda de manera efectiva.
El señor. habló al Parlamento sobre los riesgos de una carrera armamentista. ¿De que se trata? Estaba pensando en la dinámica que estamos viendo entre OpenAI [empresa que lançou o ChatGPT] y Google. Google ha hecho pública la amenaza que supone ChatGPT para su negocio principal, la búsqueda y venta de espacios publicitarios. Los dos están en competencia directa.
Y Google está invirtiendo en sus propios modelos de lenguaje. Es una carrera armamentista en el sentido de que podría haber daños: Google ha dicho que está recalibrando el nivel de riesgo que está dispuesto a asumir al lanzar productos. A medida que estos dos poderosos actores tecnológicos chocan y compiten, existen preocupaciones legítimas sobre si los problemas de seguridad se están dejando atrás.
¿Qué hizo el sr. ¿proponer? Creo que la IA es una tecnología esencial para garantizar el florecimiento humano. Pero necesitamos desarrollarlo de una manera segura y responsable. Primero, deberíamos pensar en la regulación de la IA, que debe ser adaptable y flexible. No creo que podamos llegar a un único conjunto de reglas que rija todos los posibles casos de uso de IA.
Hay algunos lugares donde creo que simplemente no deberíamos usarlo. Podemos decir que el reconocimiento facial para vigilancia puede ser un ejemplo, porque esta tecnología puede sesgarse fácilmente de una manera realmente problemática.
¿Se está haciendo algo? La Unión Europea está desarrollando su propia regulación de IA, que se espera que finalice en 2024. Pero es cierto que muchas naciones están en las primeras etapas de pensar en IA.
En 1942, el escritor de ciencia ficción Isaac Asimov creó las tres leyes de la robótica, precisamente para evitar que las máquinas dañen a los humanos. ¿No podríamos aplicarlos a la IA? Infelizmente no. No creo que las tres leyes sean suficientes (risas). Pero son un ejercicio de pensamiento realmente interesante para nosotros para descubrir algunos de estos casos problemáticos que necesitaremos resolver.
rayos X | miguel osborne
Es profesor asociado de aprendizaje automático en la Universidad de Oxford. Su trabajo ya se ha aplicado en diferentes contextos, desde la detección de planetas en sistemas solares distantes hasta mecanismos que cambian rutas para automóviles autónomos debido a obras viales. También investiga cómo los algoritmos inteligentes pueden reemplazar a los trabajadores humanos, centrándose en las consecuencias sociales. Es cofundador de la empresa de tecnología Mind Foundry.
Noticia de Brasil
Fuente: uol.com.br