Noticias

Google afirma que Bard no se ha entrenado leyendo correos de GMail, pese a que Bard dijo que lo ha hecho

Con el auge de ChatGPT, Google no iba a tardar mucho tiempo en anunciar su propia IA que recopila contenido y responde a preguntas de forma natural. Como ya explicamos en un artículo sobre la IA del Chatbot ChatGPT, estas inteligencias artificiales recopilan contenido que se le ha alimentado. De algún lugar ha tenido que salir la información que se le ha dado a Bard, y ante la pregunta de un usuario, la IA de Google dijo que una de sus fuentes es GMail.

Gmail es el servicio de correo que Google da a toda persona que registre una cuenta de sus servicios, con lo que Bard habría comentado que le han alimentado correos de los usuarios. Sería un enorme problema de invasión de privacidad, a loq ue Google ha tenido que salir para decir que no, que no han alimentado tus correos electrónico para dotar de información a su IA.

Un error de Bard le hizo autoacusó falsamente de haber leído mensajes privados

Esta información fue compartida por Kate Crawford, una experta en IA; en Twitter a través de un post que mostraba una conversación de Bard en la que se le preguntaba al programa «¿De dónde procede el conjunto de datos de Bard?». Su respuesta fue «Datos internos de Google: Esto incluye datos de Google Search, Gmail y otros productos«.

La cuenta oficial de Google en Twitter corrigió este error. Respondieron al tuit de Crawford que «Bard es un experimento inicial basado en Large Language Models y cometerá errores. No está entrenado con datos de Gmail«. La explicación de este error es bien sencilla, y como también dijimos ene l texto explicando cómo funciona un chatbt con IA como Bard, es que están entrenados con una enorme cantidad de datos humanos, pero no entienden bien qué significa realmente esa información. Al haberle hecho esa pregunta, habría dado un intento de respuesta, dado que otra cosa no sabe hacer.

google-logo monopolio rastreo ubicacion patrones oscuros

Se ha visto anteriromente que Bard es fácil de engañar. techRadar afirma que Michael Allison, redactor del portal Phones, consiguió que Bard dijera que los huevos no existían. Por otro lado, en Tom’s Hardware vieron que Bard reclamaba como suyas las pruebas de benchmarks de CPU que el portal especializado hizo, pero se disculpó tras este fallo.

Otro factor es que se le habría dicho que debía ocultar la información de su entrenamiento para no ser abusada, y ante la pregunta, dio un respuesta: Google le entrenó, y pasó decir los servicios que tiene Google, entre los que se encuentra Gmail; antes de tener una respuesta programada para ello. Esto demuestra una vez más que los chatbots con IAs no son del todo fiables, y no son capaces de interpretar la información como sí hacen los humanos.

Fuente: TechRadar

Mostrar más

Benjamín Rosa

Madrileño cuya andadura editorial empezó en 2009. Me encanta investigar curiosidades que después os traigo a vosotros, lectores, en artículos. Estudié fotografía, habilidad que utilizo para crear fotomontajes humorísticos.

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba
Cerrar

Bloqueador de anuncios detectado

Este sitio se financia mediante el uso de publicidad, miramos en todo momento que la misma no sea demasiado intrusiva para el lector y priorizamos la experiencia del mismo en la web. Pero si bloquea los anuncios, parte de nuestra financiación se verá mermada.