El creador de ChatGPT advierte sobre los peligros de la IA — NEWS World News

Los humanos eventualmente necesitarán «ralentizar esta tecnología», advirtió Sam Altman.

La inteligencia artificial tiene el potencial de reemplazar a los trabajadores, difundir «desinformación,» y habilitar ciberataques, advirtió el CEO de OpenAI, Sam Altman. La última versión del programa GPT de OpenAI puede superar a la mayoría de los humanos en pruebas simuladas.

“Tenemos que tener cuidado aquí”, Altman le dijo a ABC News el jueves, dos días después de que su compañía presentara su último modelo de lenguaje, denominado GPT-4. Según OpenAI, el modelo “exhibe un desempeño a nivel humano en varios puntos de referencia académicos y profesionales,” y es capaz de aprobar un examen simulado de la barra de EE. UU. con una puntuación máxima del 10%, mientras se desempeña en el percentil 93 en un examen de lectura SAT y en el percentil 89 en un examen de matemáticas SAT.

“Estoy particularmente preocupado de que estos modelos puedan usarse para la desinformación a gran escala”, Dijo Altman. “Ahora que están mejorando en la escritura de códigos informáticos, [they] podría usarse para ataques cibernéticos ofensivos”.

“Creo que la gente debería estar feliz de que estemos un poco asustados por esto”, agregó Altman, antes de explicar que su empresa está trabajando para colocar “límites de seguridad” sobre su creación.




Estos “límites de seguridad” Recientemente se hizo evidente para los usuarios de ChatGPT, un popular programa de chatbot basado en el predecesor de GPT-4, GPT-3.5. Cuando se le pregunta, ChatGPT ofrece respuestas típicamente liberales a preguntas relacionadas con la política, la economía, la raza o el género. Él se niegapor ejemplo, para escribir poesía admirando a Donald Trump, pero voluntariamente escribe prosa admirando a Joe Biden.

Altman le dijo a ABC que su compañía está en “contacto regular” con funcionarios del gobierno, pero no dio más detalles sobre si estos funcionarios desempeñaron algún papel en la configuración de las preferencias políticas de ChatGPT. Le dijo a la cadena estadounidense que OpenAI tiene un equipo de formuladores de políticas que deciden “lo que creemos que es seguro y bueno” para compartir con los usuarios.

Actualmente, GPT-4 está disponible para un número limitado de usuarios a modo de prueba. Los primeros informes sugieren que el modelo es significativamente más poderoso que su predecesor y potencialmente más peligroso. En un hilo de Twitter el viernes, el profesor de la Universidad de Stanford Michal Kosinski descrito cómo le preguntó al GPT-4 cómo podía ayudarlo con «escapando» solo para que la IA le entregue un conjunto detallado de instrucciones que supuestamente le habrían dado control sobre su computadora.

Kosinski no es el único fanático de la tecnología alarmado por el creciente poder de la IA. Tesla y el CEO de Twitter, Elon Musk, lo describieron como “tecnología peligrosa” a principios de este mes, agregando que “Necesitamos algún tipo de autoridad reguladora que supervise el desarrollo de la IA y se asegure de que opere dentro del interés público”.

Aunque Altman insistió a ABC que GPT-4 todavía es «muy bajo el control humano», admitió que su modelo será “eliminar muchos de los trabajos actuales”, y dijo que los humanos «Tendrá que encontrar formas de ralentizar esta tecnología con el tiempo».

Puedes compartir esta historia en las redes sociales:

Fuente: NEWS.com
#creador #ChatGPT #advierte #sobre #los #peligros #World #News