sábado 20 de abril de 2024
10.9ºc Comodoro Rivadavia

Colapsaron los servidores de app que “desnuda” a mujeres

viernes 28 de junio de 2019
Colapsaron los servidores de app que “desnuda” a mujeres

El software usa inteligencia artificial, redes neuronales y una base de datos de 10.000 mujeres desnudas.

Una aplicación que mediante inteligencia artificial y redes neuronales y con sólo una fotografía de una mujer vestida genera una imagen realista de esa misma mujer pero desnuda –con una marca de agua que la identifica como falsa–, se vió superada por un alud de visitantes que sus servidores no  resistieron, y sus desarrolladores se vieron obligados a poner fuera de línea.

La aplicación en cuestión se llama DeepNude y es un ejemplo más de lo que se conoce como deepfakes , imágenes que gracias a potentes algoritmos consiguen crear imágenes o videos falsos de cualquier persona, a partir de imágenes reales de esa persona. Sin duda uno de los malos usos que se puede dar a la inteligencia artificial.

El software está basado un algoritmo de código abierto desarrollado por la Universidad de Berkeley en 2017, y que el desarrollador de DeepNude habría entrenado con una base de datos de más de 10.000 mujeres desnudas. La aplicación tarda menos de un minuto en generar una de estas imágenes que se pueden usar, posteriormente, para acosar, humillar y degradar a una mujer.

Como en la mayoría de los casos de los deepfakes , la calidad de las imágenes es baja, aunque depende mucho de la calidad de la imagen con la que se alimenta al algoritmo. Curiosamente, es a resoluciones más bajas cuando es más fácil de confundir una de esta imágenes con una imagen real.

Fue la publicación digital Motherboard la primera que alertó sobre la existencia de DeepNude, y se puso en contacto con su desarrollador que se identificó como Alberto y que explicó que se inspiró en el recuerdo de viejos anuncios de cómics con “especificaciones de máquina rayos X”, que prometían que podrían usarse para ver a través de la ropa de la gente.

El software está basado en un algoritmo de código abierto creado en 2017 por la Universidad de Berkeley.

Alberto dijo, también, que él es más “un entusiasta de la tecnología” que un voyeur y que lo que le motivó fue su pasión por la inteligencia artificial y ver si existía la posibilidad de sacar un rendimiento económico a sus investigaciones en inteligencia artificial.

De hecho, la aplicación tiene una versión gratis y otra de pago –cuya única diferencia es que genera imágenes de mayor calidad– y que funciona para Windows y Linux. Tanto en una como en otra, las imágenes aparecen con una marca de agua que indica que se trata de una fotografía falsa generada por la aplicación, pero según explica también Motherboard es muy fácil deshacerse de ella.

Cuando se usa con la imagen de un hombre la imagen editada le pone vulva y pechos de mujer

El desarrollador de la aplicación dijo que la creó por diversión y que no se esperaba que tuviera tanto éxito, al mismo tiempo que comparaba su software con Photoshop y aseguraba que con este programa de retoque fotográfico se pueden conseguir los mismos resultados que con su aplicación.

De todas formas, el informático aseguró que si se demuestra que la gente empieza a hacer un mal uso de su aplicación, la retirará con toda seguridad, aunque recuerda que el acuerdo de licencia del software deja muy claro que cualquier foto editada con su programa es considerada una “parodia” y que la aplicación es un “servicio de entretenimiento que no promueve imágenes sexualmente explícitas”.

 

Te puede interesar
Últimas noticias