Google testeará en agosto unas gafas con Translate integrado
Google va a empezar a probar en el mundo real su prototipo de gafas de realidad aumentada que ofrecen traducción de idiomas en tiempo real mediante Translate. Tienen la necesidad de hacer pruebas fuera de laboratorio debido a las limitaciones que ofrece este campo.
Las pruebas en el mundo real les deberían de permitir comprender mejor cómo estos dispositivos pueden ayudar a las personas en su vida cotidiana. También les servirá para adaptarse a los diferentes acentos y diferentes tipos de pronunciación de personas reales del mismo idioma.
Google avanza con sus gafas con traductor de sonido
Según una entrada del blog de Google, la empresa está desarrollando experiencias como la navegación por RA que le ayudarán a «tener en cuenta factores como el clima y las intersecciones concurridas, que pueden ser difíciles, a veces imposibles, de recrear completamente en interiores«. Uno de los primeros prototipos es un par de sencillas gafas con las que han estado probando en sus laboratorios. Las gafas ofrecen traducción en tiempo real, con transcripción puesta directamente en la lente.
Estos prototipos de gafas de investigación ofrecen experiencias como la traducción, la transcripción y la navegación. Se parecen a unas gafas normales, cuentan con una pantalla dentro de la lente y tienen sensores de audio y visuales, como un micrófono y una cámara para poder recoger información. Han afirmado que van a investigar los diferentes casos de uso que utilizan la detección de audio, como la transcripción y traducción de voz; junto a la detección visual, que utiliza datos de imagen para la traducción de texto y el posicionamiento durante la navegación. Estos prototipos no son compatibles con la fotografía o la videografía, aunque los datos de imagen se utilizarán para casos de uso como la navegación, la traducción y la búsqueda visual.
Ponen como ejemplo que si estás en un país donde no entiendes el idioma local, puedes utilizar la cámara para traducir los carteles y las señales, y recibir indicaciones para llegar a un lugar deseado. Google afirma que los datos de la imagen se eliminan una vez finalizada la experiencia, excepto en los casos en que los datos de la imagen se utilizarán para el análisis y la depuración de errores. Cuando suceda, los datos de las imágenes se eliminarán primero en busca de contenido sensible, como rostros y matrículas de coche que pudieran vulnerar la privacidad de personas.
Los datos se almacenarán en un servidor con acceso limitado a un pequeño número de empleados de Google para su análisis y depuración; y por política de privacidad, después de 30 días, se eliminan. Un indicador LED se encenderá si los datos de la imagen se están guardando para su análisis y depuración, de forma que se podrá pedir que se eliminen los datos, además de cumplir con leyes locales sobre privacidad y grabación.