Google anuncia que entrenara sus IA de modelos de lenguaje con contenido público
Una actualización de Google del pasado fin de semana introdujo una serie de cambios en su política de privacidad. Anteriormente, afirmaba que «los datos de los usuarios se utilizarían para entrenar modelos lingüísticos«, mencionando únicamente Google Translate. La versión actualizada cambia este término a «modelos de IA«, mencionando específicamente Bard y Cloud AI junto a Translate.
Desde sus inciio, o más bien desde que se popularizaron con la popularidad de ChatGPT, uno de los muchos problemas éticos de los sistemas de IA generativa como ChatGPT y Bard es la forma en que extraen y utilizan los datos. Ahora Google admite que va a usar datos públicos para entrenar a Bard y demás.
Google usará datos públicos para entrenar su IA Bard
Muchas veces es información pública. Pero no evita los problemas de plagio y privacidad, y la posibilidad de que la IA malinterprete lo que se ha dicho, que ofrezca respuestas antiguas y desfasadas. Incluso Google ha advertido a sus empleados que tengan cuidado al utilizar chatbots como su propio Bard, ya que pueden hacer sugerencias de código no deseadas.
También está la cuestión de si este tipo de extracción de datos es legal. Por ejemplo, OpenAI, creadora de ChatGPT; se enfrenta a demandas por acusaciones de recopilar ilegalmente información personal de usuarios de Internet y utilizarla para crear sus productos.
OpenAI también se enfrenta a una demanda por infracción de derechos de autor y violación de la privacidad en relación con las acusaciones de que utilizó libros protegidos por derechos de autor sin permiso para entrenar sus sistemas de IA. La empresa supuestamente copió texto de estos títulos ilegalmente al no obtener el consentimiento de los titulares de los derechos de autor, y no darles crédito ni compensación.
Google haría esto con muchas publicaciones de Internet. Eso causa mucha incertidumbre sobre cómo va a tratar los datos, especialmente si se encuentra con datos erróneos y los regula para que no los tome en cuenta cuando le pregunten.
Fuente: TechSpot