Unión Europea quiere prohibir el uso de IA para vigilar a los ciudadanos
Hace mucho que no hablamos del reconocimiento facial, una tecnología que se esperaba ser usada para mejorar la vigilancia y seguridad de los ciudadanos, pero se ha visto que ha dado problemas cuando se usa de forma masiva. Ahora, está en el ojo de la Unión europea gracias al uso de Inteligencia Artificial, que espera prohibir que se use para vigilar a los ciudadanos.
La Unión europea ha redactado nuevas posibless reglas a nivel europeo que prohibirían una amplia gama de casos de uso peligrosos. Entre ellas figuran la prohibición de programas de reconocimiento facial masivo en lugares públicos y de algoritmos policiales predictivos que traten de identificar a futuros delincuentes utilizando datos personales.
La Unión europea quiere que no se vigile a los ciudadanos mediante Inteligencia Artificial
La normativa también exige la creación de una base de datos pública de sistemas de IA de «alto riesgo» desplegados por autoridades públicas y gubernamentales. Quieren que con esto, los ciudadanos puedan estar informados sobre cuándo y cómo se ven afectados por esta tecnología. El borrador ha sido aprobado hoy por dos comisiones clave: la Comisión de Mercado Interior y la Comisión de Libertades Civiles.
Las herramientas de Inteligencia Artificial generativa ha forzado una serie de cambios importantes y de última hora. Es probable que estas leyes afecten a países de todo el mundo, dado que la Unión Europea es un mercado tan importante que las empresas tecnológicas suelen cumplir su la normativa ya a escala mundial. Los principales cambios de la ley aprobada hoy son una serie de prohibiciones de lo que el Parlamento Europeo describe como «usos intrusivos y discriminatorios de los sistemas de IA«. Según el Parlamento, las prohibiciones -ampliadas desde una lista original de cuatro- afectan a los siguientes casos de uso:
- Sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público.
- Sistemas de identificación biométrica remota «a posteriori», con la única excepción de las fuerzas de seguridad para la persecución de delitos graves y sólo previa autorización judicial.
- Sistemas de categorización biométrica que utilicen características sensibles (por ejemplo, sexo, raza, etnia, estatus de ciudadanía, religión, orientación política);
- Sistemas policiales predictivos (basados en perfiles, localización o comportamientos delictivos anteriores).
- Sistemas de reconocimiento de emociones en las fuerzas del orden, la gestión de fronteras, el lugar de trabajo y las instituciones educativas.
- Extracción indiscriminada de datos biométricos de redes sociales o grabaciones de vídeovigilancia para crear bases de datos de reconocimiento facial (violación de los derechos humanos y del derecho a la intimidad.
El borrador también introduce nuevas medidas destinadas a controlar la denominada «IA de propósito general«. Estos son modelos de IA a gran escala que pueden destinarse a diversos usos. Se pretende que se aplique a los sistemas de IA de uso intensivo de recursos construidos por los gigantes tecnológicos. Los creadores de estos sistemas tendrán nuevas obligaciones para evaluar y mitigar diversos riesgos antes de que estas herramientas estén disponibles. Deberán de evaluar el daño medioambiental que supone el entrenamiento de estos sistemas, les obligarían a a revelar el uso de datos de entrenamiento protegidos por la ley de derechos de autor.
Fuente: The Verge