Software

Las IA de arte se están usando para generar pornografía

Si hace unos días hablamos de cómo las IA para generar imágenes se están usando para generar arte que gana competiciones, ahora toca hablar de su uso para generar pornografía. La pornografía creada con los últimos sistemas de generación de imágenes apareció por primera vez en 4chan y Reddit a principios de este mes, después de que un miembro de 4chan filtrara el sistema de código abierto Stable Diffusion antes de su lanzamiento oficial.

La semana pasada, se lanzó lo que parece ser uno de los primeros sitios web dedicados a la generación de porno con IA de alta fidelidad. Con el nombre de Porn Pen, el sitio web permite a los usuarios personalizar la apariencia de los modelos desnudos generados por la IA utilizando etiquetas conmutables, etnias y fondos. En el foro Hacker News de Y Combinator, un usuario que dice ser el creador; describe la web como un “experimento” que utiliza modelos de texto a imagen de última generación. Avisa que ha eliminado explícitamente la posibilidad de especificar texto personalizado para evitar que se generen imágenes perjudiciales; como fotos para verificar identidad en ciertas webs; y que se añadirán nuevas etiquetas.

Lo ético de usar una IA para generar imágenes para adultos

La existencia de estas IA está generando preocupaciones, como la gente que usa servicios de distribución de contenido para adultos, que teme que sean sustituidos. Auqnue algunos posibles afectados afirman que el contenido generado por Porn Pen no es una amenaza para las trabajadoras sexuales en su estado actual, y porque las trabajadoras hacen mejores fotos y vídeos, y también se presentan como personas accesibles e interesantes.

inteligencia artificial

Sí que temen que los sitios de pornografía tomen medidas contra el porno de IA, que podrían dar pie a restricciones más duras. Además, creen que las propias leyes van lentas con el tema de contenido generado con Inteligencia Artificial, pues aún muchos países no los han regulado.

También temen una menor representación y mayor estereotipación por parte de las IAs debido a su funcionamiento usando imaágenes disponibles con comandos más vagos. Por estadística, van a representar a aquellos cuyos cuerpos son aceptados y valorados en la sociedad mayoritaria, dado que Porn Pen sólo tiene categorías “para personas cisnormativas”.

Stable Diffusion, según usuarios de Reddit y 4chan, ya se muestra competente en la generación de deepfakes pornográficos de celebridades. Al ser código abierto, nada impide que el creador de Porn Pen perfeccione el sistema con otras imágenes de desnudos. Esto ocasionaría lo mismo que pasa actualmente con los deepfakes, que la mayoría son pornográficos sin el consentimiento de la persona que los protagoniza y se usan para acosar o intimidar.

Fuente: Tech Crunch

Mostrar más

Benjamín Rosa

Madrileño cuya andadura editorial empezó en 2009. Me encanta investigar curiosidades que después os traigo a vosotros, lectores, en artículos. Estudié fotografía, habilidad que utilizo para crear fotomontajes humorísticos.

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba