La tecnología Deepfake le permite producir videos manipulados en los que es posible mostrar a individuos haciendo o diciendo cosas falsas. La táctica se utiliza para diferentes propósitos en Internet, como una forma de sátira e incluso de difamación de las personas. Pensando en los riesgos de la popularización de clips de este tipo en las redes, la organización Witness, que defiende el uso responsable de las falsificaciones profundas, publicó el miércoles 16 el informe de la convención “Deepfakes and Synthetic Media Prepare Yourself Now”, que tuvo lugar el 25 de julio, en São Paulo.

El objetivo de la encuesta es promover el debate sobre los vídeos manipulados con un enfoque menos centrado en los Estados Unidos o Europa. Las principales víctimas de la nueva tecnología son los grupos marginados, como los activistas, los movimientos sociales y las mujeres. Por ejemplo, las falsificaciones profundas pornográficas se han hecho populares durante el último año con la manipulación de imágenes de celebridades como Gal Gadot y Emma Watson.

La tecnología de imitación profunda se utiliza a menudo en parodias con políticos. Sin embargo, también se puede utilizar para difamar a las personas o provocar la violencia de género. Algunos ejemplos son los videos pornográficos falsos con mujeres y la creación de fotos manipuladas de mujeres desnudas como Deepnude.

Como la tecnología de manipulación de clips es fácilmente accesible, los usuarios de Internet deben dudar de los vídeos cuyo origen es dudoso. Los clips pueden comprometer la credibilidad de instituciones, figuras públicas y movimientos sociales.

Debido a estos riesgos, es necesario que los ciudadanos tengan acceso a herramientas para verificar la veracidad de los vídeos compartidos en línea. Entre los consejos de los expertos en seguridad para reconocer las falsificaciones profundas es prestar atención al patrón de luz de video para comprobar si hay errores, o para observar el movimiento de los ojos o la boca de la persona para buscar imperfecciones.

Según el informe de Witness, una solución sería desarrollar herramientas específicas para combatir la falsificación profunda y compartirlas con la población. Por ejemplo, así como deepfake es una inteligencia artificial (IA) programada para crear vídeos falsos, sería posible entrenar a una IA para detectar la manipulación del propio vídeo. Además, la IA podría aprender el estilo de habla y movimiento de alguien para indicar posibles inconsistencias en el video.