Las IAs podrían tener que responder ante los prejuicios que tengan
Hoy día las inteligencias artificiales y algoritmos son una de las formas más eficientes de procesar grandes cantidades de datos e información, pero por muy eficientes que tengan, no quita que puedan tener errores o estén programados en bases a prejuicios o que los generen. Sí, es posible que un algoritmo tenga prejuicios como los tendría un humano, como sería dar resultados más favorables a hombres que a mujeres, o a personas caucásicas antes que a afroamericanos o de origen sudamericano.
Varias auditorías independientes han visto esto en Inteligencias artificiales y algoritmos de contratación de personal, y los criterios no son solamente por raza, o sexo, sino por detalles visuales totalmente arbitrarios. es por esto por lo que en Nueva York se están queriendo impulsar una ley que pida que los algoritmos sean totalmente imparciales y se eliminen de prejuicios que tendrían humanos, que es para lo que deberían usarse, no solo para aligerar la carga de trabajo.
Una ley contra prejuicios de los algoritmos e Inteligencias Artificiales en Nueva York
El Consejo Municipal de Nueva York aprobó el mes pasado una ley que exige auditorías de los algoritmos utilizados por el personal de Recursos Humanos de las empresas en la contratación o la promoción de sus trabajadores. También deberán de informar a los solicitantes de empleo que viven en Nueva York cuando la inteligencia artificial desempeña un papel en la decisión de quién es contratado o promovido.
Ejemplo de estos prejuicios en algoritmos e Inteligencias artificiales son el de una herramienta de contratación y que asignaba a las personas diferentes puntuaciones de personalidad en función del programa informático con el que habían creado su currículum. Otros estudios descubrieron que los algoritmos de contratación que favorecen a los solicitantes en función de dónde estudiaron, su acento, si llevan gafas o si en el fondo del vídeo donde hicieron la entrevista hay una estantería.
Aunque aún hay críticas contra esta ley porque no arregla problemas no tan evidentes como juzgar por la letra escrita de una persona. En cualquier caso, es un primer paso para acabar con los algoritmos con prejuicios raciales, sexistas o basados en ideas anticuadas como puede ser la grafología. De pasarse, podría impulsarse a otras ciudades y países para que los algoritmos deban basar todas sus decisiones en resultados objetivos.
Fuente: ArsTechnica