En OpenAI, uno de los laboratorios de IA (inteligencia artificial) más ambiciosos del mundo, los investigadores han desarrollado una tecnología que le permite crear imágenes digitales simplemente describiendo lo que quiere ver.
Lo llaman Dall-E en alusión tanto a «Wall-E», la película de animación de 2008 sobre un robot autónomo, como al pintor surrealista Salvador Dalí.
Alex Nichol, uno de los investigadores del sistema, demostró cómo funciona: cuando pidió «una tetera con forma de aguacate» escribiendo esas palabras, el sistema creó diez imágenes diferentes de una tetera verde aguacate, algunas con hoyos y otras sin.
La idea es que la herramienta proporcione a los artistas gráficos nuevos atajos y nuevas ideas en la producción de imágenes digitales.
Para muchos expertos, sin embargo, Dall-E causa preocupación. A medida que este tipo de tecnología mejora, dicen, podría ayudar a difundir información errónea en Internet, alimentando el tipo de campaña en línea que puede haber influido en las elecciones presidenciales de EE. UU. de 2016.
«Puedes usarlo para cosas buenas, pero ciertamente puedes usarlo para todo tipo de aplicaciones locas y preocupantes, incluidas las ‘falsificaciones profundas'», como fotos y videos engañosos, dijo Subbarao Kambhampati, profesor de informática en Arizona.
Ya hay información errónea en línea, pero la preocupación es que la lleva a nuevos niveles, dice Oren Etzioni, director ejecutivo del Instituto Allen de Inteligencia Artificial, un laboratorio de inteligencia artificial en Seattle. «Podemos falsificar texto. Podemos poner texto en la voz de alguien. Y podemos falsificar imágenes y videos», dijo.
Para tratar de evitar este riesgo, OpenAI no permite que personas externas usen Dall-E por su cuenta y coloca una marca de agua en la esquina de cada imagen que genera.
Pero hay otros riesgos. A medida que aprenden sus habilidades a partir de enormes conjuntos de texto, imágenes y otros datos en línea que pueden incluir sesgos, los sistemas de IA también pueden generar contenido sesgado, por ejemplo, contra las mujeres o los negros. La creación de campañas de pornografía, incitación al odio y troleo también son motivo de preocupación.
Comprender cómo funciona Dall-E, basado en redes neuronales
Hace unos cinco años, los laboratorios de inteligencia artificial líderes en el mundo crearon sistemas capaces de identificar objetos en imágenes digitales e incluso generar imágenes por sí mismos, como flores, perros, automóviles y rostros.
Unos años más tarde, construyeron sistemas que hacen lo mismo con el lenguaje escrito, resumiendo artículos, respondiendo preguntas, generando tweets e incluso escribiendo publicaciones en blogs.
Dall-E es lo que los investigadores de IA llaman una red neuronal: un sistema matemático basado libremente en la red de neuronas del cerebro. Es la tecnología que reconoce los comandos hablados en los teléfonos inteligentes e identifica la presencia de peatones para los automóviles autónomos.
Una red neuronal aprende habilidades mediante el análisis de grandes cantidades de datos. Al identificar patrones en miles de fotos de aguacates, por ejemplo, aprende a reconocer un aguacate.
Dall-E busca patrones analizando millones de imágenes digitales y subtítulos que los describen. De esta forma, aprendes a reconocer los vínculos entre imágenes y palabras.
Cuando alguien describe una imagen a Dall-E, genera un conjunto de características, como la línea en el borde de una trompeta o la curva en la oreja de un oso de peluche.
Luego, una segunda red neuronal, llamada modelo de difusión, crea la imagen. La última versión de Dall-E, revelada en abril, genera imágenes de alta resolución que en muchos casos parecen fotografías.
Si bien Dall-E a menudo no comprende lo que alguien ha descrito y, a veces, destruye la imagen que produce, OpenAI continúa mejorando la tecnología.
Los investigadores a menudo pueden refinar las habilidades de una red neuronal alimentándola con cantidades aún mayores de datos.
Traducido por Luiz Roberto M. Gonçalves
Noticia de Brasil
Fuente: uol.com.br