">

Las 3 etapas de la inteligencia artificial y por qué la 3 puede ser fatal – 29/05/2023 – Tec / Brasil

Desde su lanzamiento a fines de noviembre de 2022, ChatGPT, el chatbot que utiliza inteligencia artificial (también llamada IA) para responder preguntas o generar textos a pedido de los usuarios, se ha convertido en la aplicación de Internet de más rápido crecimiento en la historia.

En solo dos meses alcanzó los 100 millones de usuarios activos. La popular aplicación TikTok tardó nueve meses en alcanzar este hito. Y para Instagram dos años y medio, según datos de la empresa de monitorización tecnológica Sensor Town.

«En los 20 años que hemos estado rastreando Internet, no podemos recordar un crecimiento más rápido para una aplicación de Internet para consumidores», dijeron analistas del banco suizo UBS, que reportó el récord en febrero.

La enorme popularidad de ChatGPT, desarrollado por la empresa OpenAI, con el apoyo financiero de Microsoft, ha generado todo tipo de discusiones y especulaciones sobre el impacto que ya está teniendo y tendrá en nuestro futuro cercano la inteligencia artificial generativa.

Es la rama de la IA que se dedica a generar contenido original a partir de datos existentes (normalmente extraídos de internet) en respuesta a las instrucciones de un usuario.

Los textos (desde ensayos, poesía y chistes hasta código de computadora) e imágenes (diagramas, fotos, obras de arte de cualquier estilo y más) producidos por IA generativas como ChatGPT, DALL-E, Bard y AlphaCode, por nombrar solo algunos de los más conocidos- son, en algunos casos, tan indistinguibles del trabajo humano que han sido utilizados por miles de personas para reemplazar su trabajo habitual.

Desde estudiantes que las utilizan para hacer sus deberes, hasta políticos que les confían sus discursos -el representante demócrata Jake Auchincloss lanzó el reportaje en el Congreso de Estados Unidos- o fotógrafos que inventan instantáneas de cosas que no sucedieron (e incluso ganan premios por ello). , como el alemán Boris Eldagsen, quien ganó el primer lugar en el último Sony World Photography Award por una imagen creada por IA).

Este texto podría haber sido escrito por una máquina y probablemente no lo sabrías.

El fenómeno ha llevado a una revolución en los recursos humanos, con empresas como el gigante tecnológico IBM anunciando que dejarán de contratar personas para cubrir unos 8.000 puestos de trabajo que pueden ser gestionados por IA.

Un informe del banco de inversión Goldman Sachs estimó a fines de marzo que la IA podría reemplazar una cuarta parte de todos los trabajos humanos en la actualidad, al mismo tiempo que crea más productividad y nuevos empleos.

Si todos estos cambios son abrumadores para usted, prepárese para algo que puede ser aún más desconcertante.

Y es que, con todos sus impactos, lo que estamos viviendo ahora es solo la primera etapa del desarrollo de la IA.

Según los expertos, lo que puede venir pronto -la segunda etapa- será mucho más revolucionario.

Y el tercero y último, que podría ocurrir poco después, es tan avanzado que alterará por completo el mundo, incluso a expensas de la existencia humana.

las tres etapas

Las tecnologías de IA se clasifican por su capacidad para imitar las características humanas.

1. Inteligencia artificial estrecha (ANI)

La categoría más básica de IA es mejor conocida por su acrónimo: ANI, por Artificial Narrow Intelligence

Se llama así porque se enfoca estrictamente en una sola tarea, realizando trabajos repetitivos dentro de un rango predefinido por sus creadores.

Los sistemas ANI generalmente se entrenan utilizando un gran conjunto de datos (por ejemplo, de Internet) y pueden tomar decisiones o tomar medidas basadas en ese entrenamiento.

Una ANI puede igualar o superar la inteligencia y la eficiencia humanas, pero solo en el área específica en la que opera.

Un ejemplo son los programas de ajedrez que usan IA. Pueden vencer al campeón mundial de esta disciplina, pero no pueden realizar otras tareas.

Por eso también se le conoce como «IA débil».

Todos los programas y herramientas que usan IA hoy en día, incluso los más avanzados y complejos, son formas de ANI. Y estos sistemas están en todas partes.

Los smartphones están repletos de aplicaciones que utilizan esta tecnología, desde mapas GPS que te permiten ubicarte en cualquier parte del mundo o saber el clima, hasta programas de música y video que conocen tus gustos y te hacen recomendaciones.

También los asistentes virtuales como Siri y Alexa son formas de ANI. Como el buscador de Google y el robot que limpia tu casa.

El mundo empresarial también utiliza mucho esta tecnología. Se utiliza en las computadoras internas de los autos, en la fabricación de miles de productos, en el mundo financiero y hasta en hospitales, para hacer diagnósticos.

Incluso los sistemas más sofisticados, como los automóviles sin conductor (o vehículos autónomos) y el popular ChatGPT, son formas de ANI, ya que no pueden operar fuera del rango predefinido por sus programadores y, por lo tanto, no pueden tomar decisiones por sí mismos.

También carecen de autoconciencia, otro rasgo de la inteligencia humana.

Sin embargo, algunos expertos creen que los sistemas programados para aprender automáticamente (aprendizaje automático), como ChatGPT o AutoGPT (un «agente autónomo» o «agente inteligente» que usa información de ChatGPT para realizar ciertas subtareas de forma autónoma) pueden pasar a la siguiente etapa de desarrollo.


2. Inteligencia Artificial General (AGI)

Esta categoría, Inteligencia Artificial General, se logra cuando una máquina adquiere habilidades cognitivas a nivel humano.

Es decir, cuando se puede realizar cualquier tarea intelectual que realiza una persona.

AGI también se conoce como «IA fuerte».

Tal es la creencia de que estamos a punto de alcanzar este nivel de desarrollo, que el pasado mes de marzo más de 1.000 expertos en tecnología pidieron a las empresas de IA que dejaran de entrenar, durante al menos seis meses, programas más potentes que GPT-4, la última versión de ChatGPT.

“Los sistemas de IA con inteligencia que compiten con los humanos podrían presentar profundos riesgos para la sociedad y la humanidad”, advirtieron en una carta abierta el cofundador de Apple, Steve Wozniak, y el propietario de Tesla, SpaceX Neuralink, entre otros. los cofundadores de Open AI antes de renunciar a la junta debido a desacuerdos con la dirección de la empresa).

La carta en la que más de 1.000 expertos llaman a frenar la inteligencia artificial como «amenaza para la humanidad».

En la carta, publicada por la organización sin fines de lucro futuro de la vida institutoy, dicen los expertos, si las empresas no aceptan rápidamente detener sus proyectos, «los gobiernos deben intervenir e instituir una moratoria» para que se puedan diseñar e implementar medidas de seguridad.

Si bien esto es algo que, por ahora, no ha sucedido, el gobierno de EE. UU. ha pedido a los propietarios de las principales empresas de IA (Alphabet, Anthropic, Microsoft y OpenAI) que acuerden «nuevas acciones para promover la innovación responsable en IA».

“La IA es una de las tecnologías más poderosas de nuestro tiempo, pero para aprovechar las oportunidades que presenta, primero debemos mitigar sus riesgos”, dijo la Casa Blanca en un comunicado del 4 de mayo.

Mientras tanto, el Congreso de los EE. UU. convocó al CEO de OpenAI, Sam Altman, el martes para responder preguntas sobre ChatGPT.

Durante la audiencia en el Senado, Altman dijo que es «crucial» que su industria esté regulada por el gobierno a medida que la IA se vuelve «cada vez más poderosa».

Carlos Ignacio Gutiérrez, investigador de políticas públicas del Instituto Futuro de la Vida, explicó a BBC News Mundo, el servicio en español de la BBC, que uno de los grandes desafíos que presenta la IA es que “no hay un colegiado de expertos que decida cómo regularlo, como sucede, por ejemplo, con el Panel Intergubernamental sobre Cambio Climático (IPCC)”.

En la carta de los expertos, definieron cuáles eran sus principales preocupaciones.

«¿Se supone que debemos desarrollar mentes no humanas que eventualmente puedan superarnos en número, burlarnos, volvernos obsoletos y reemplazarnos?», preguntaron.

«¿Deberíamos arriesgarnos a perder el control de nuestra civilización?»

Lo que nos lleva a la tercera y última etapa de la IA.


3. Superinteligencia Artificial (ASI)

La preocupación de estos informáticos tiene que ver con una teoría bien establecida de que, cuando lleguemos a AGI, poco después llegaremos a la última etapa del desarrollo de esta tecnología: la Superinteligencia Artificial, que se produce cuando la inteligencia sintética supera a la humana.

El filósofo de la Universidad de Oxford y experto en inteligencia artificial Nick Bostrom define la superinteligencia como «un intelecto mucho más inteligente que los mejores cerebros humanos en prácticamente todos los campos, incluida la creatividad científica, la sabiduría general y las habilidades sociales».

La teoría es que cuando una máquina alcanza una inteligencia equivalente a la de los humanos, su capacidad de multiplicar esa inteligencia exponencialmente a través de su propio aprendizaje autónomo hará que en poco tiempo nos supere ampliamente, alcanzando el ASI.

“Para ser ingeniero, enfermero o abogado, el ser humano tiene que estudiar mucho. El problema de AGI es que es inmediatamente escalable”, dice Gutiérrez.

Esto se debe a un proceso llamado automejora recursiva que permite que una aplicación de IA «se mejore continuamente a sí misma».

Si bien hay mucho debate sobre si una máquina realmente puede adquirir el tipo de inteligencia amplia que posee un ser humano, especialmente cuando se trata de inteligencia emocional, es una de las cosas que más preocupa a quienes creen que estamos cerca de lograr AGI. .

Recientemente, el llamado «padrino de la inteligencia artificial» Geoffrey Hinton, pionero en la investigación de las redes neuronales y el aprendizaje profundo que permiten que las máquinas aprendan de la experiencia, al igual que los humanos, advirtió en una entrevista con la BBC que podríamos estar cerca. a ese hito.

«Actualmente (las máquinas) no son más inteligentes que nosotros, por lo que puedo ver. Pero creo que pronto podrían serlo», dijo el hombre de 75 años, quien acaba de retirarse de Google.

Extinción o Inmortalidad

Hay, en general, dos campos de pensamiento con respecto a ASI: hay quienes creen que esta superinteligencia será beneficiosa para la humanidad y quienes creen lo contrario.

Entre ellos estaba el famoso físico británico Stephen Hawking, quien creía que las máquinas superinteligentes representaban una amenaza para nuestra existencia.

«El desarrollo de la inteligencia artificial completa podría significar el fin de los humanos», le dijo a la BBC en 2014, cuatro años antes de morir.

Una máquina con ese nivel de inteligencia «despegaría por sí sola y se rediseñaría a sí misma a un ritmo creciente», dijo.

«Los humanos, que están limitados por una evolución biológica lenta, no podrían competir y serían superados», predijo.

Sin embargo, en el lado opuesto, hay pronósticos más positivos.

Uno de los mayores entusiastas de ASI es el autor e inventor futurista estadounidense Ray Kurzweil, investigador de inteligencia artificial en Google y cofundador de la Universidad Singularity de Silicon Valley («singularidad» es otro nombre para la era en la que las máquinas se vuelven superinteligentes).

Kurzweil cree que los humanos podrán usar IA superinteligente para superar nuestras barreras biológicas, mejorando nuestras vidas y nuestro mundo.

En 2015 incluso pronosticó que para el año 2030 los humanos podremos alcanzar la inmortalidad gracias a los nanobots (robots extremadamente pequeños) que actuarán dentro de nuestro cuerpo, reparando y curando cualquier daño o enfermedad, incluidas las causadas por el paso del tiempo.

En su declaración ante el Congreso el martes, Sam Altman de OpenAI también se mostró optimista sobre el potencial de la IA y señaló que podría resolver «los mayores desafíos de la humanidad, como el cambio climático y la cura del cáncer».

En el medio están personas, como Hinton, que creen que la IA tiene un enorme potencial para la humanidad, pero encuentran «preocupante» el ritmo actual de desarrollo, sin reglas ni límites claros.

En un comunicado enviado a The New York Times anunciando su salida de Google, Hinton dijo que ahora lamentaba el trabajo que había hecho porque temía que los «malos agentes» usaran la IA para hacer «cosas malas».

Cuestionado por la BBC, dio este ejemplo de «pesadilla».

«Imagine, por ejemplo, que algún mal actor como [o presidente russo Vladimir] Putin decidió dar a los robots la capacidad de crear sus propios objetivos secundarios».

Las máquinas eventualmente podrían «crear objetivos secundarios como ‘Necesito obtener más energía’, lo que supondría un riesgo existencial», anotó.

Al mismo tiempo, el experto británico-canadiense dijo que en el corto plazo, la IA…

Noticia de Brasil
Fuente: uol.com.br

Salir de la versión móvil