Preocupación por programa que reemplaza rostros en videos porno | Impacto!

Preocupación por programa que reemplaza rostros en videos porno

Preocupación por programa que reemplaza rostros en videos porno

La polémica comenzó en diciembre de 2017 cuando apareció un video de una actriz porno con el rostro de la actriz israelí Gal Gadot.

'Deep Fakes' es la tecnología de inteligencia artificial que ya afecta a varias famosas.

Entre los fanáticos de Internet hay un dicho conocido como “Regla 34” que dice: “si algo existe, habrá porno sobre ello, sin excepción“.

Esto aplica a la nueva moda en Internet que consiste en utilizar tecnología de reconocimiento facial para poner el rostro de una persona en el cuerpo de otra que protagoniza escenas pornográficas.

La tecnología no es nueva, hace un par de años el intercambio de caras a través de inteligencia artificial se hizo popular gracias a aplicaciones como Snapchat en la que dos personas acercan sus rostros al móvil y la app los intercambiaba.

Pero la polémica se generó en diciembre de 2017 cuando apareció un video de una actriz porno con el rostro de la actriz israelí Gal Gadot. También se hicieron populares otros videos con los rostros de celebridades como Scarlett Johansson y Taylor Swift.

La práctica era posible para personas con conocimientos avanzados de informática. Ahora, estos videomontajes se han vuelto más comunes luego del lanzamiento de Fakeapp, una aplicación que según sus creadores, permite hacer el intercambio facial de manera “rápida y fácil”.

Se distribuye a través de la red social Reddit y ha sido descargada más de 100.000 veces. La periodista Emma Grey Ellis, de la revista Wired, augura que estos montaje se aplicarán en el ámbito político: “videos trucados de candidatos políticos diciendo cosas extravagantes“.

En su artículo, Grey Ellis se refiere a las principales preocupaciones que están surgiendo con esta práctica, entre las que menciona el uso indebido de la imagen de celebridades, la suplantación de identidad y la pornovenganza.

Por ahora, algunos sitios ya han comenzado a tomar medidas. La plataforma Gfycat, en la que se han publicado varios de estos videomontajes que luego se comparten en Reddit, ha comenzado a remover varios de ellos.

Según Leo Kelion, editor de tecnología de la BBC, el portal Reddit aún no ha comentado sobre el asunto y todavía permite el acceso a los videos que Gfycat no ha eliminado.

Tal vez le interese leer…

Las categorías de porno más buscadas en la web

COMENTARIOS