Ver no es creer durante mucho tiempo. Las fotos han sido falsificadas y manipuladas casi desde que existe la fotografía.
Ahora, ni siquiera se necesita la realidad para que las fotos parezcan auténticas, solo la inteligencia artificial responde a un comando. Incluso los expertos a veces tienen problemas para saber si una foto es real o no. ¿Puede?
El rápido advenimiento de la inteligencia artificial ha disparado las alarmas de que la tecnología utilizada para engañar a las personas avanza mucho más rápido que la tecnología que identifica los trucos. Las empresas de tecnología, los investigadores, las agencias de fotografía y las organizaciones de noticias se esfuerzan por ponerse al día, tratando de establecer estándares para la procedencia y la propiedad del contenido.
Los avances ya están alimentando la desinformación y se están utilizando para instigar divisiones políticas. Los gobiernos autoritarios crearon estaciones de noticias aparentemente realistas para promover sus objetivos políticos. El mes pasado, algunas personas creyeron en las imágenes que mostraban al Papa Francisco con una chaqueta acolchada y un terremoto que asolaba el noroeste del Pacífico, aunque ninguno de estos eventos realmente sucedió. Las imágenes se crearon con Midjourney, un popular generador de imágenes.
El martes, cuando el expresidente de Estados Unidos, Donald Trump, compareció en la oficina del fiscal de distrito de Manhattan en Nueva York para enfrentar cargos penales, aparecieron en Reddit imágenes generadas por IA que mostraban al actor Bill Murray como presidente de la Cámara Blanca. Otra imagen que muestra a Trump marchando frente a una multitud con banderas estadounidenses de fondo se volvió a compartir rápidamente en Twitter sin la información que acompañaba a la publicación original de que en realidad no era una fotografía.
Los expertos temen que la tecnología pueda acelerar la erosión de la confianza en los medios, el gobierno y la sociedad. Si cualquier imagen puede fabricarse –y manipularse–, ¿cómo podemos creer todo lo que vemos?
«Las herramientas mejorarán, se abaratarán y llegará el día en que no podremos creer nada de lo que vemos en Internet», dijo Wasim Khaled, director ejecutivo de Blackbird.AI, una empresa que ayuda a los clientes a combatir la desinformación. .
La inteligencia artificial permite que prácticamente cualquiera pueda crear obras de arte complejas, como las que ahora se exhiben en la galería de arte Gagosian en Nueva York, o imágenes realistas que desdibujan la línea entre lo real y lo que es ficción. Ingrese una descripción de texto y la tecnología producirá una imagen relacionada, no se requieren habilidades especiales.
A menudo hay indicios de que las imágenes virales fueron creadas por una computadora en lugar de capturadas en la vida real: el Papa lujosamente vestido tenía anteojos que parecían derretirse en su mejilla y dedos borrosos, por ejemplo. Las herramientas de arte de IA también suelen producir galimatías.
Sin embargo, los rápidos avances tecnológicos están eliminando muchos de estos defectos. La última versión de Midjourney, lanzada el mes pasado, es capaz de representar manos realistas, de lo que claramente carecían las primeras herramientas de imagen.
Días antes de que Trump se entregara para enfrentar cargos criminales en Nueva York, las imágenes tomadas de su «arresto» se volvieron virales en las redes sociales. Fueron creados por Eliot Higgins, un periodista británico y fundador de Bellingcat, una organización de investigación de código abierto. Usó Midjourney para imaginar el arresto, el juicio, el arresto del expresidente con un mono naranja y su escape por una alcantarilla. Publicó las imágenes en Twitter, marcándolas claramente como creaciones. Desde entonces, han sido ampliamente compartidos.
Las imágenes no fueron hechas para engañar a nadie. De hecho, Higgins quería llamar la atención sobre el poder de la herramienta incluso en su infancia.
Las imágenes de Midjourney, dijo, pasaron programas de reconocimiento facial que Bellingcat usa para verificar identidades, generalmente de rusos que han cometido delitos u otros abusos. No es difícil imaginar gobiernos u otros actores fabricando imágenes para hostigar o desacreditar a sus enemigos.
Al mismo tiempo, dijo Higgins, la herramienta tuvo problemas para crear imágenes convincentes de personas que no son tan fotografiadas como Trump, como el nuevo primer ministro británico, Rishi Sunak, o el comediante Harry Hill, «quien probablemente no sea tan bueno». conocido fuera del Reino Unido».
En cualquier caso, Midjourney no estaba contento y suspendió la cuenta de Higgins sin explicación después de que las imágenes se hicieran virales. La compañía no respondió a las solicitudes de comentarios.
Los límites de las imágenes generativas las hacen relativamente fáciles de detectar por parte de las organizaciones de noticias u otros en sintonía con el riesgo, al menos por ahora.
Aún así, las empresas de fotografía, los reguladores gubernamentales y un grupo comercial de la industria de la música se han movilizado para proteger su contenido del uso no autorizado, pero la poderosa capacidad de la tecnología para imitar y adaptar está complicando esos esfuerzos.
Algunos generadores de imágenes de IA incluso reprodujeron imágenes, un empalagoso homenaje a «Twin Peaks»; Will Smith comiendo puñados de pasta, con versiones distorsionadas de las marcas de agua que utilizan empresas como Getty Images o Shutterstock.
En febrero, Getty acusó a Stability AI de copiar ilegalmente más de 12 millones de sus fotos, junto con subtítulos y metadatos, para entrenar el software detrás de su herramienta Stable Diffusion. En su demanda, Getty argumentó que Stable Diffusion diluyó el valor de la marca de agua Getty al incrustarla en imágenes que iban «desde lo extraño hasta lo grotesco».
Getty dijo que el «robo descarado y el uso gratuito» se llevó a cabo «en una escala asombrosa». Stability AI no respondió a una solicitud de comentarios.
La demanda de Getty refleja las preocupaciones planteadas por muchos artistas individuales: que las empresas de inteligencia artificial se están convirtiendo en una amenaza competitiva al copiar contenido que no tienen permiso para usar.
Las infracciones de marcas comerciales también se convirtieron en una preocupación: las imágenes generadas artificialmente replicaban el logotipo del pavo real de NBC, aunque con letras ininteligibles, y mostraban el familiar logotipo curvo de Coca-Cola con O adicionales en el nombre.
En febrero, la Oficina de derechos de autor de EE. UU. intervino en las imágenes generadas artificialmente al evaluar el caso de «Zarya of the Dawn», una novela gráfica de 18 páginas escrita por Kristina Kashtanova con arte generado por Midjourney. El administrador del gobierno decidió ofrecer protección de derechos de autor al texto del cómic, pero no a su obra de arte.
«Debido a la brecha significativa entre lo que un usuario puede indicarle a Midjourney que cree y el material que el programa realmente produce, los usuarios […] no tiene suficiente control sobre las imágenes generadas para ser tratado como el ‘autor intelectual’ detrás de ellas», dijo la oficina en su decisión.
La amenaza para los fotógrafos está superando rápidamente el desarrollo de las protecciones legales, dijo Mickey Osterreicher, consejero general de la Asociación Nacional de Fotógrafos de Prensa. A las salas de redacción les resultará cada vez más difícil autenticar el contenido. Los usuarios de las redes sociales están ignorando las etiquetas que identifican claramente las imágenes como generadas artificialmente, prefiriendo creer que son fotografías reales, dijo.
La IA generativa también puede facilitar la producción de videos falsos. Un video que apareció recientemente en línea parecía mostrar a Nina Schick, autora y experta en IA generativa, explicando cómo la tecnología estaba creando «un mundo donde las sombras se confunden con la realidad». El rostro de Schick luego falló cuando la cámara retrocedió, mostrando un doble de riesgo en su lugar.
El video dice que el engaño fue creado, con el consentimiento de Schick, por la compañía holandesa Revel.ai y Truepic, una compañía de California que está explorando una verificación más amplia del contenido digital.
Las compañías describieron su video, que presenta una insignia que lo identifica como generado por computadora, como el «primer ‘deepfake’ digitalmente transparente». Los datos se sellan criptográficamente en el archivo; la manipulación de la imagen rompe la firma digital y evita que aparezcan las credenciales cuando se utiliza un software de confianza.
Las empresas esperan que la insignia, que cobrará una tarifa a los clientes comerciales, sea adoptada por otros creadores de contenido para ayudar a impulsar un estándar de confianza en torno a las imágenes de IA.
«La escala de este problema se acelerará tanto que impulsará la educación del consumidor muy rápidamente», dijo Jeff McGregor, director ejecutivo de Truepic.
Truepic es parte de la Coalición para la Procedencia y Autenticidad del Contenido, un proyecto creado a través de una alianza con empresas como Adobe, Intel y Microsoft para rastrear mejor los orígenes de los medios digitales. El fabricante de chips Nvidia dijo el mes pasado que estaba trabajando con Getty para ayudar a entrenar modelos de IA «responsables» usando contenido con licencia de Getty, con regalías pagadas a los artistas.
El mismo día, Adobe lanzó un producto de imágenes, Firefly, que entrenará usando solo imágenes con licencia de su propia colección o que sean de dominio público. Dana Rao, directora de confianza de la compañía, dijo en su sitio web que la herramienta agregaría automáticamente credenciales de contenido, «como una etiqueta de nutrición para imágenes», que identifican cómo se hizo la imagen. Adobe dijo que también planea compensar a los contribuyentes.
El mes pasado, la modelo Chrissy Teigen escribió en Twitter que la chaqueta acolchada del Papa la engañó y agregó que «no hay manera de que sobreviva al futuro de la tecnología».
Recientemente, una serie de nuevas imágenes de IA mostraron al Papa, vestido con su atuendo habitual, disfrutando de un vaso alto de cerveza. Las manos se veían casi normales, excepto por el anillo de bodas en el dedo anular del pontífice.
Traducido por Luiz Roberto M. Gonçalves
Noticia de Brasil
Fuente: uol.com.br