En un estudio de grabación con poca luz en Seúl, los productores del sello de K-pop que trajo al mundo al grupo mundial BTS están usando inteligencia artificial (IA) para fusionar la voz de un cantante surcoreano con la de hablantes nativos de otros cinco idiomas.
La tecnología permitió a HYBE, el sello musical más grande de Corea del Sur, lanzar una canción de la cantante MIDNATT en seis idiomas: coreano, inglés, español, chino, japonés y vietnamita, en mayo.
Algunos cantantes de K-pop ya han hecho canciones en inglés y japonés, así como en coreano, pero esta es la primera vez que se aplica la nueva tecnología para un lanzamiento simultáneo en seis idiomas, según HYBE, y la medida podría allanar el camino para que la tecnología sea utilizada por artistas más populares.
“Primero escucharemos la reacción, la voz de los fans, y luego decidiremos cuáles serán los siguientes pasos”, dijo Chung Wooyong, jefe de la división de medios interactivos de HYBE, en una entrevista en el estudio del sello.
Lee Hyun, de 40 años, conocido artísticamente como MIDNATT, habla solo un poco de inglés y chino además del coreano, pero grabó la canción «Masquerade» en cada uno de los idiomas.
Para hacer esto, los hablantes nativos leyeron la letra y luego sus voces se combinaron con las del cantante con la ayuda de la tecnología musical de inteligencia artificial interna de HYBE, dijo Chung.
La canción es la última señal de la creciente influencia de la IA en la industria de la música, en un momento en que los Premios Grammy introdujeron nuevas reglas para el uso de la tecnología, mientras que las mezclas de canciones generadas por la IA inundan las redes sociales.
«Dividimos un fragmento de sonido en diferentes componentes: pronunciación, timbre, tono y volumen», dijo Chung. «Observamos la pronunciación, que está asociada con el movimiento de la lengua, y usamos nuestra imaginación para ver qué tipo de resultados podíamos obtener usando nuestra tecnología».
En una comparación de antes y después mostrada a Reuters, se agregó un sonido de vocal alargado a la palabra «twisted» en la letra en inglés de la canción, por ejemplo, para que suene más natural, mientras que no se hicieron cambios detectables en la voz del cantante.
MIDNATT dijo que el uso de la inteligencia artificial permitió un «espectro más amplio de expresión artística».
«Siento que la barrera del idioma ha sido eliminada y es mucho más fácil para los fanáticos globales tener una experiencia inmersiva con mi música», dijo en un comunicado.
Si bien la tecnología no es nueva, es una forma innovadora de utilizar la inteligencia artificial en la música, dijo Valerio Velardo, director de The Sound of AI, un servicio de consultoría de música y audio de IA con sede en España.
«Bajará el listón para crear música. Es un poco como Instagram para las fotos, pero en el caso de la música».
Por ahora, la tecnología de corrección de pronunciación de HYBE tarda «semanas o meses» en hacer el trabajo, pero cuando se acelera el proceso, podría servir para una gama más amplia de propósitos, como la interpretación en videoconferencias, dijo Choi Jin-woo, productor de «Masquerade» de MIDNATT, que se hace llamar Hitchhiker.
Noticia de Brasil
Fuente: uol.com.br