">

Los gigantes tecnológicos tienen interés en la regulación de la IA

Ouno de los El placer de escribir sobre negocios es ese raro momento en el que te das cuenta de que las convenciones están cambiando frente a ti. Trae un escalofrío por la columna vertebral. Con vanagloria, empiezas a garabatear cada detalle de tu entorno, como si estuvieras redactando las primeras líneas de un éxito de ventas. Le sucedió a su columnista recientemente en San Francisco, sentado en las prístinas oficinas de Anthropic, un niño mimado de la inteligencia artificial (AI) escena. Cuando Jack Clark, uno de los cofundadores de Anthropic, trazó una analogía entre el Plan Baruch, un esfuerzo (fallido) en 1946 para someter las armas atómicas del mundo Naciones Unidas control, y la necesidad de una coordinación global para prevenir la proliferación de AI, hubo ese viejo cosquilleo familiar. Cuando los empresarios comparan sus creaciones, aunque sea tangencialmente, con bombas nucleares, se siente como un punto de inflexión.

Escucha esta historia.
Disfruta de más audio y podcasts en iOS o Androide.

Su navegador no admite el elemento

Desde el chatGPT estalló en escena a fines del año pasado, no ha faltado la angustia sobre los riesgos existenciales que plantea AI. Pero esto es diferente. Escuche a algunos de los pioneros del campo y están menos preocupados por un futuro distópico cuando las máquinas superan a los humanos, y más por los peligros que acechan dentro de las cosas que están haciendo ahora. CharlarGPT es un ejemplo de «generativo» ai, que crea contenido humano basado en su análisis de textos, imágenes y sonidos en Internet. sam altman, CEO de AbiertoAIla startup que lo construyó, dijo en una audiencia en el Congreso este mes que la intervención regulatoria es fundamental para gestionar los riesgos de los cada vez más poderosos «modelos de lenguaje grande» (LLMs) detrás de los bots.

En ausencia de reglas, algunos de sus homólogos en San Francisco dicen que ya han establecido canales clandestinos con funcionarios gubernamentales en Washington, corriente continua, para discutir los posibles daños descubiertos al examinar sus chatbots. Estos incluyen material tóxico, como el racismo, y capacidades peligrosas, como el cuidado de los niños o la fabricación de bombas. Mustafa Suleyman, cofundador de Inflection AI (y miembro de la junta de El economistaempresa matriz de), planea en las próximas semanas ofrecer generosas recompensas a los piratas informáticos que puedan descubrir vulnerabilidades en el compañero de conversación digital de su empresa, Pi.

Tal precaución hace que este auge tecnológico incipiente se vea diferente del pasado, al menos en la superficie. Como de costumbre, el capital de riesgo está llegando. Pero a diferencia del enfoque de antaño de «moverse rápido y romper cosas», muchos de los argumentos de las empresas emergentes ahora son, ante todo, sobre la seguridad. El viejo adagio de Silicon Valley sobre la regulación, que es mejor pedir perdón que permiso, ha sido desechado. Startups como OpenAIAnthropic e Inflection están tan interesados ​​en transmitir la idea de que no sacrificarán la seguridad solo para ganar dinero que han establecido estructuras corporativas que restringen la maximización de ganancias.

Otra forma en la que este auge se ve diferente es que las nuevas empresas que construyen sus propios LLMs no tienen como objetivo derrocar la jerarquía existente de gran tecnología. De hecho, pueden ayudar a consolidarlo. Eso se debe a que sus relaciones con los gigantes tecnológicos que lideran la carrera por la tecnología generativa AI son simbióticos. AbiertoAI está unido por la cadera a Microsoft, un gran inversor que utiliza la tecnología del primero para mejorar su software y productos de búsqueda. Google de Alphabet tiene una participación considerable en Anthropic; el 23 de mayo, la startup anunció su última ronda de financiación de 450 millones de dólares, que incluía más inversiones del gigante tecnológico. Haciendo que sus lazos comerciales sean aún más estrechos, las empresas jóvenes confían en las plataformas de computación en la nube de las grandes tecnologías para entrenar sus modelos en océanos de datos, lo que permite que los chatbots se comporten como interlocutores humanos.

Al igual que las nuevas empresas, Microsoft y Google están ansiosos por demostrar que se toman la seguridad en serio, incluso cuando luchan ferozmente entre sí en la carrera de los chatbots. Ellos también argumentan que se necesitan nuevas reglas y que la cooperación internacional en la supervisión LLMs es esencial. como el alfabeto CEOSundar Pichai, dilo, “AI es demasiado importante para no regularlo y demasiado importante para no regularlo bien”.

Tales propuestas pueden estar perfectamente justificadas por los riesgos de desinformación, manipulación electoral, terrorismo, interrupción del trabajo y otros peligros potenciales que cada vez más poderosos AI los modelos pueden generarse. Sin embargo, vale la pena tener en cuenta que la regulación también traerá beneficios a los gigantes tecnológicos. Esto se debe a que tiende a reforzar las estructuras de mercado existentes, creando costos que los titulares encuentran más fáciles de soportar y elevando las barreras de entrada.

Esto es importante. Si la gran tecnología usa la regulación para fortalecer su posición en las alturas dominantes de la generación AI, hay un intercambio. Es más probable que los gigantes implementen la tecnología para mejorar sus productos existentes en lugar de reemplazarlos por completo. Buscarán proteger sus negocios principales (software empresarial en el caso de Microsoft y búsqueda en el de Google). En lugar de marcar el comienzo de una era de destrucción creativa de Schumpeter, servirá como un recordatorio de que los grandes titulares actualmente controlan el proceso de innovación, lo que algunos llaman «acumulación creativa». La tecnología puede terminar siendo menos revolucionaria de lo que podría ser.

LLaMA anda suelta

Tal resultado no es una conclusión inevitable. Uno de los comodines es de código abierto. AIque ha proliferado desde marzo cuando LLaMamáel LLM desarrollado por Meta, filtrado en línea. Ya se rumorea en Silicon Valley que los desarrolladores de código abierto son capaces de crear programas generativos.AI modelos que son casi tan buenos como los propietarios existentes, y cuestan centésimas.

Clark, de Anthropic, describe el código abierto AI como un “concepto muy preocupante”. Aunque es una buena manera de acelerar la innovación, también es intrínsecamente difícil de controlar, ya sea en manos de un estado hostil o de un fabricante de ransomware de 17 años. Tales preocupaciones serán discutidas a medida que los organismos reguladores del mundo se enfrenten a problemas generativos. AI. Microsoft y Google, y, por extensión, sus cargos de inicio, tienen bolsillos mucho más profundos que los desarrolladores de código abierto para manejar cualquier cosa que propongan los reguladores. También tienen más en juego en la preservación de la estabilidad del sistema de tecnología de la información que los ha convertido en titanes. Por una vez, el deseo de seguridad y el de ganancias pueden estar alineados.

Lea más de Schumpeter, nuestro columnista sobre negocios globales:
Las guerras culturales de Estados Unidos amenazan su mercado único (18 de mayo)
Escritores en huelga, cuidado: Hollywood ha cambiado para siempre (10 de mayo)
Estados Unidos necesita un pinchazo en el trasero corporativo (3 de mayo)

Además: si desea escribirle directamente a Schumpeter, envíele un correo electrónico a [email protected]. Y aquí hay una explicación de cómo la columna de Schumpeter obtuvo su nombre.

Internacional
Fuente: The Economist (Audios en inglés)

Salir de la versión móvil