¿Sabéis eso que se dice que el eslabón más débil en la seguridad de un ordenador es el ser humano? Pues hoy tenemos otro ejemplo de ello, con un informe que afirma que muchos trabajadores que manejan secretos comerciales o confidenciales, o cualquier cosa por la que han firmado un NDA, se las están contando a IAs generativas como ChatGPT, o Google Bard, puede que como desahogo o puede que como broma que consideran graciosa.
Si bien dicen que no emplean lo que se les dice para ser entrenados, nada asegura que los datos no se queden guardados. Este es un problema de seguridad que muchos empleadores temen que pase, pues parece que la gente no entiende que el tener datos sensibles o secretos comerciales es una responsabilidad enorme, y es algo que mucha gente no debería decir ni a amigos.
No cuentes tus secretos a una IA, por mucho que digan que no usan lo que les dices para entrenarlas
En un estudio realizado entre más de 1.000 empleados de oficina en Estados Unidos y Reino Unido, la empresa de análisis de datos CybSafe descubrió que muchos ven con buenos ojos las herramientas de IA generativa. Un tercio de ellos dicen que seguirían utilizándolas aunque su empresa las prohibiera. El 69% de los encuestados también afirmó que las ventajas de estas herramientas superan sus riesgos de seguridad.
La mitad afirmó que utilizaba la IA en su trabajo de alguna manera. Los casos de uso más comunes incluyen la investigación, redacción de textos publicitarios, análisis de datos, atención al cliente y la escritura de código.
Pese al intenso uso que le dan los trabajadores, CybSafe cree que esto es motivo de preocupación al no estar informados realmente de los peligros que plantea el uso de estas herramientas. Comentan que a medida que aumentan las ciberamenazas de la IA, las empresas corren peligro como estafas de phishing y fugas accidentales de datos. Un 64% de los encuestados afirma que ha introducido información relativa a su trabajo en herramientas de IA generativa, con 28% que no estaba seguro de haberlo hecho. Hasta el 93% de los trabajadores han compartido información confidencial con una IA, con camás de un tercio diciendo que es «información que no compartiría en un bar con un amigo».
Otro problema que ven es la incapacidad de los trabajadores para distinguir entre el contenido creado por un humano o por una IA. El 60% de todos los encuestados afirmó que confiaba en poder hacerlo con precisión. Pero la realidad es que todas las herramientas que se han desarrollado no funcionan del todo bien. En una imagen generada por IA es posible ver en los detalles cuando no tienen mucho sentido. Pero con un trabajo escrito o código, algo con fallos puede ser simplemente un error humano y parecer un error propio de una IA.
Fuente: TechRadar