Los propios desarrolladores de Google Bard creen que es «un inútil y un mentiroso compulsivo»
Como si de un canal de televisión contraprogramando se tratara, Google anunció el chatbot con Inteligencia Artificial Google Bard, tras ver que Bing había implementado ChatGPT. Los resultados iniciales en u presentación no fuern buenos. Pero… Es lo normal, se empieza con problemas y se depuran en el desarrollo… Pues resulta que no, y es que Google Bard estaría recibiendo numerosas críticas negativas y desastrosas por los propios empleados de Google.
Los empleados de Google criticaron repetidamente el chatbot Bard de la empresa en mensajes internos. Lo tachaban de «mentiroso compulsivo» y suplicando a sus jefes que no lo lancen.
Quien trabaja en Google no cree que vaya a salir bien su chatbot con Inteligencia Artificial hecho solamente para devolvérsela a Bing
Esto proviene de una posible filtración de Bloomberg que cita conversaciones con 18 trabajadores y ex trabajadores de Google. En estas conversaciones internas, un empleado señaló que Bard solía dar a los usuarios consejos peligrosos sobre temas como aterrizar un avión o bucear. «Bard es peor que inútil: por favor, no lo lances» se leía. Google habría llegado a invalidar una evaluación de riesgos presentada por un equipo de seguridad interno que afirmaba que no estaba listo para su uso general.
Google habría dejado aparentemente de lado las preocupaciones éticas para seguir el ritmo de rivales dedicados como OpenAI. A finales de 2020 y principios de 2021, despidieron a dos investigadores después de que fueran autores de un trabajo de investigación que exponía fallos en los mismos sistemas de lenguaje de Inteligencia Artificial que sustentan los chatbots. Bloomberg parafrasea testimonios de empleados actuales y antiguos, como «El gigante de las búsquedas en Internet, que inspira confianza, está proporcionando información de baja calidad en una carrera por mantenerse a la altura de la competencia, mientras da menos prioridad a sus compromisos éticos«.
Esgrimen que las pruebas públicas son necesarias para desarrollar estos sistemas, y que el daño conocido causado por los chatbots es mínimo. Admiten que producen textos tóxicos y ofrecen información engañosa, pero eso ya lo hacen algunas a webs. Aunque normalmente, Google debería de ser la encargada de vigilar las fuentes que usa para dar información, vista su posición.
Brian Gabriel, portavoz de Google, declaró a Bloomberg que «la ética de la IA sigue siendo una de las principales prioridades de la empresa. Seguimos invirtiendo en los equipos que trabajan en la aplicación de nuestros principios de IA a nuestra tecnología«.
Fuente: The Verge