">

Dueño de Google advierte a equipo sobre uso de datos en chatbots – 16/06/2023 – Tec / Brasil

Alphabet está advirtiendo a los empleados sobre cómo usan los chatbots, incluido el propio Bard de la compañía, mientras comercializa el programa en todo el mundo, dijeron a Reuters cuatro fuentes familiarizadas con el asunto.

La empresa matriz de Google aconsejó a los empleados que no ingresen sus datos confidenciales en los chatbots de inteligencia artificial, dijeron las personas y la compañía confirmó, citando una política de larga data sobre la protección de la información.

Los revisores humanos pueden leer los chatbots, y los investigadores descubrieron que una inteligencia artificial similar puede reproducir los datos que absorbió durante el entrenamiento, creando un riesgo de fuga.

Alphabet también advirtió a sus ingenieros que eviten usar directamente el código de computadora que pueden generar los chatbots, dijeron algunas de las fuentes.

Cuando se le pidió un comentario, la compañía dijo que Bard puede hacer sugerencias de código no deseadas, pero aún así ayuda a los programadores. Google también dijo que tiene la intención de ser transparente sobre las limitaciones de su tecnología.

Las preocupaciones muestran cuán interesado está Google en evitar dañar su negocio con el software lanzado en competencia con ChatGPT. Miles de millones de dólares en inversión y publicidad e ingresos en la nube de nuevos programas de inteligencia artificial aún no revelados están en juego en la carrera de Alphabet contra los fabricantes de ChatGPT, OpenAI y Microsoft.

La precaución de Google también refleja lo que se está convirtiendo en un estándar de seguridad para las corporaciones, es decir, advertir a los empleados sobre el uso de programas de chat disponibles públicamente.

Un número creciente de empresas en todo el mundo ha incorporado protecciones en los chatbots de IA, incluidas Samsung, Amazon.com y Deutsche Bank, dijeron las empresas a Reuters. Apple, que no devolvió las solicitudes de comentarios, también se sumó.

Alrededor del 43 % de los profesionales usaban ChatGPT u otras herramientas de IA en enero, a menudo sin notificar a sus jefes, según una encuesta de casi 12 000 encuestados, incluidas las principales empresas de EE. UU., realizada por el sitio de redes Fishbowl.

En febrero, Google le dijo al equipo que probó Bard antes de su lanzamiento que no proporcionara información interna, informó Insider. Ahora la compañía lanza el programa en más de 180 países y en 40 idiomas como trampolín para la creatividad, y sus alertas se extienden a sus sugerencias de código.

Google dijo a Reuters que había tenido conversaciones detalladas con la Comisión de Protección de Datos de Irlanda y está respondiendo a las preguntas de los reguladores, luego de un informe de Politico el martes de que la compañía estaba retrasando el lanzamiento de Bard en la Unión Europea esta semana, en espera de más información sobre el Impacto del chatbot en la privacidad.

Un aviso de privacidad de Google actualizado el 1 de junio también establece: «No incluya información confidencial o delicada en sus conversaciones con Bard».

Algunas empresas han desarrollado software para hacer frente a estas preocupaciones. Por ejemplo, Cloudflare, que protege los sitios web contra ataques cibernéticos y ofrece otros servicios en la nube, está comercializando una función para que las empresas marquen y restrinjan el flujo saliente de algunos datos.

Google y Microsoft también ofrecen herramientas de conversación para clientes empresariales que tendrán un precio más alto pero que se abstendrán de absorber datos en modelos públicos de inteligencia artificial. La configuración predeterminada en Bard y ChatGPT es guardar el historial de chat de los usuarios, que los usuarios pueden optar por eliminar.

«Tiene sentido» que las empresas no quieran que sus empleados usen chatbots públicos para trabajar, dijo Yusuf Mehdi, director de marketing de consumo de Microsoft.

«Las empresas están adoptando un punto de vista adecuadamente conservador», dijo Mehdi, explicando cómo se compara el chatbot Bing gratuito de Microsoft con su software comercial. «Allí, nuestras políticas son mucho más estrictas».

Microsoft se negó a comentar si tiene una prohibición general para que los empleados ingresen información confidencial en los programas públicos de inteligencia artificial, incluido el suyo propio, aunque otro ejecutivo dijo a Reuters que había restringido personalmente su uso.

Noticia de Brasil
Fuente: uol.com.br

Salir de la versión móvil