Google afirma que Bard no se ha entrenado leyendo correos de GMail, pese a que Bard dijo que lo ha hecho

Con el auge de ChatGPT, Google no iba a tardar mucho tiempo en anunciar su propia IA que recopila contenido y responde a preguntas de forma natural. Como ya explicamos en un artículo sobre la IA del Chatbot ChatGPT, estas inteligencias artificiales recopilan contenido que se le ha alimentado. De algún lugar ha tenido que salir la información que se le ha dado a Bard, y ante la pregunta de un usuario, la IA de Google dijo que una de sus fuentes es GMail.
Gmail es el servicio de correo que Google da a toda persona que registre una cuenta de sus servicios, con lo que Bard habría comentado que le han alimentado correos de los usuarios. Sería un enorme problema de invasión de privacidad, a loq ue Google ha tenido que salir para decir que no, que no han alimentado tus correos electrónico para dotar de información a su IA.
Un error de Bard le hizo autoacusó falsamente de haber leído mensajes privados
Esta información fue compartida por Kate Crawford, una experta en IA; en Twitter a través de un post que mostraba una conversación de Bard en la que se le preguntaba al programa «¿De dónde procede el conjunto de datos de Bard?». Su respuesta fue «Datos internos de Google: Esto incluye datos de Google Search, Gmail y otros productos«.
La cuenta oficial de Google en Twitter corrigió este error. Respondieron al tuit de Crawford que «Bard es un experimento inicial basado en Large Language Models y cometerá errores. No está entrenado con datos de Gmail«. La explicación de este error es bien sencilla, y como también dijimos ene l texto explicando cómo funciona un chatbt con IA como Bard, es que están entrenados con una enorme cantidad de datos humanos, pero no entienden bien qué significa realmente esa información. Al haberle hecho esa pregunta, habría dado un intento de respuesta, dado que otra cosa no sabe hacer.

Se ha visto anteriromente que Bard es fácil de engañar. techRadar afirma que Michael Allison, redactor del portal Phones, consiguió que Bard dijera que los huevos no existían. Por otro lado, en Tom’s Hardware vieron que Bard reclamaba como suyas las pruebas de benchmarks de CPU que el portal especializado hizo, pero se disculpó tras este fallo.
Otro factor es que se le habría dicho que debía ocultar la información de su entrenamiento para no ser abusada, y ante la pregunta, dio un respuesta: Google le entrenó, y pasó decir los servicios que tiene Google, entre los que se encuentra Gmail; antes de tener una respuesta programada para ello. Esto demuestra una vez más que los chatbots con IAs no son del todo fiables, y no son capaces de interpretar la información como sí hacen los humanos.
Fuente: TechRadar