Los desarrolladores de inteligencia artificial (IA) de Google encontraron recientemente una misteriosa «caja negra».
Los ingenieros estaban trabajando en un software de IA que inesperadamente ganó la capacidad de comprender un nuevo idioma.
«Encontramos que con muy poca información sobre bengalí [a língua oficial de Bangladesh]ahora puedes traducir todo a ese idioma», dijo James Maneka, jefe de la división de IA de Google, en el programa 60 Minutos de CBS.
Al comentar sobre el asunto, el CEO de Google, Sundar Pichai, dijo que esta capacidad de los programas de IA para generar habilidades o brindar respuestas de manera inesperada es lo que los expertos llaman una «caja negra».
«No lo entiendes del todo. Realmente no puedes decir por qué [o robô] dijo eso o por qué estaba mal. Tenemos algunas ideas y nuestra capacidad de entender el tema mejora con el tiempo».
El desarrollo de la inteligencia artificial se ha acelerado mucho en los últimos años. Las grandes empresas tecnológicas están invirtiendo sumas significativas para crear chatbots, como Bard, de Google, o ChatGPT, de OpenAi y Microsoft.
Más recientemente, el multimillonario Elon Musk anunció que también entraría en este negocio.
Al mismo tiempo, los expertos en IA señalan que esta carrera puede ser riesgosa si la tecnología no está controlada por los desarrolladores.
Uno de estos controles es precisamente entender cómo aprenden habilidades para las que no fueron entrenados.
Y esta es la gran caja negra de esta rama de la tecnología.
LA CAJA BLANCA
La idea de la caja negra se opone a lo que los expertos en inteligencia artificial llaman caja blanca.
Ian Hogarth, cofundador de la empresa de tecnología Plural y autor de The Status of AI Reports, explica a la BBC que cuando los desarrolladores crean un programa de la forma «tradicional», las líneas de código insertadas se reflejan claramente en el resultado que obtiene el software. .
«A veces la gente lo describe como una caja blanca», dice.
«Pero en IA, los sistemas son realmente muy diferentes. Están más cerca de una caja negra en muchos sentidos, porque realmente no entiendes lo que está pasando allí», agrega.
Y, por lo general, los programadores no esperan resultados tan creativos de sus creaciones.
«Me gusta pensar que hacemos desarrollo de IA. Esa es la mejor idea que he escuchado sobre cómo construimos los sistemas que se usan hoy. Y la parte difícil es que ahora hay grandes avances en sus capacidades», explica.
A diferencia de la programación de software más tradicional, que se basa en implementar instrucciones para obtener un resultado, en el desarrollo de IA, los ingenieros trabajan para crear un sistema que imite las «redes neuronales» de la inteligencia humana.
Esto implica una gran cantidad de procesadores interconectados que pueden manejar grandes cantidades de datos, detectar patrones entre millones de variables mediante el aprendizaje automático y, lo que es más importante, adaptarse en respuesta a lo que están haciendo.
David Stern, gerente de investigación cuantitativa en G-Research, una empresa de tecnología que utiliza el aprendizaje automático para predecir precios en los mercados financieros, advierte que «el progreso más rápido en la investigación de IA en los últimos años ha implicado un enfoque en cada vez más cajas negras. Cada vez más datos -impulsado».
“En el enfoque de redes neuronales actualmente en boga, este procedimiento de entrenamiento determina la configuración de millones de parámetros internos que interactúan de manera compleja y son muy difíciles de explicar o aplicar ingeniería inversa”, dice el experto.
Otra tendencia es el «aprendizaje de refuerzo profundo», en el que un «diseñador simplemente especifica objetivos de comportamiento y el sistema en sí mismo aprende automáticamente al interactuar directamente con el entorno», agrega.
«Esto da como resultado un sistema que es aún más difícil de entender».
DEBEMOS ESTAR PREOCUPADOS
Las nuevas capacidades de los robots que se han lanzado recientemente han planteado interrogantes sobre las múltiples formas en que influirán en la sociedad, desde impactos en el mercado laboral hasta el control de procesos de seguridad pública o en el ámbito militar.
En el programa 60 Minutos, se le preguntó al CEO de Google sobre el hecho de que los ingenieros no entienden completamente cómo suceden las cosas en la caja negra, incluso con chatbots como Bard en pleno funcionamiento.
“Creo que tampoco entendemos completamente cómo funciona la mente humana”, respondió Sundar Pichai, quien ve la llegada gradual de la IA a la sociedad como una forma de acostumbrarse.
«Creo que el desarrollo de esto debe incluir no solo a los ingenieros, sino también a los científicos sociales, especialistas en ética, filósofos, etc.», sugirió Pichai.
«Y tenemos que ser muy reflexivos. Estas son las cosas que la sociedad necesita resolver a medida que avanzamos. No depende de nosotros como empresa decidir», dijo.
Ian Hogarth también cree que la IA eventualmente afectará la vida de las personas, y se necesita un diálogo abierto sobre los impactos de estas tecnologías.
“Creo que tienen un potencial notable para transformar todos los aspectos de nuestras vidas. En cierto modo, quizás sean las tecnologías más poderosas de la actualidad”, evalúa el experto.
«La conclusión es que deberíamos tener una discusión pública sobre qué tan rápido están progresando estos sistemas y cuáles son las diferencias con respecto a las generaciones anteriores de este software», concluye Hogarth.
Noticia de Brasil
Fuente: uol.com.br