Deepfakes

Deepfakes: del entretenimiento a posibles amenazas a la seguridad

El uso masivo que se da a estas aplicaciones es, sin embargo, bastante burdo. Cerca de un 96% del contenido de vídeos Deepfakes de la red corresponden a contenido pornográfico y apenas un 4% se trataría de vídeos no-pornográficos que, sin embargo, aumentan su popularidad especialmente en la arena de la política.

Deepfakes: falsificaciones y fraudes

La Inteligencia Artificial y el Aprendizaje Automático, tecnologías de última generación, ya cuentan con varios productos de uso masivo y popular. Es el caso de aplicaciones como Wombo, disponible para móviles Android y iOS. Esta App nos permite seleccionar una foto de un rostro entre nuestros archivos, para luego ponerla a cantar una canción de moda con perfecta sincronía de labios y otros movimientos gestuales. El resultado es impresionante, lo que explica la popularidad de esta aplicación.

Otro caso es el de Deep Nostalgia. Esta es una herramienta del sitio MyHeritage que permite seleccionar una foto antigua, cargarla en el sitio y, posteriormente, la Inteligencia Artificial de la aplicación se encargará de crear cortos de vídeo que la ponen en movimiento. ¿De qué manera? Pues suponiendo movimientos que el rostro de la foto podría haber ejecutado antes o inmediatamente después a la toma de la fotografía en cuestión. Así nace un fotograma animado de nuestros abuelos o bisabuelos.

Los usuarios pasan buenos momentos y se divierten con estas aplicaciones. Sin embargo, el uso que se puede dar a esta tecnología de resultados altamente realistas puede alejarse bastante de estos fines lúdicos. Un ejemplo de ello es lo que ocurre con las llamadas Deepfakes.

Las Deepfakes, como su nombre lo indica, son una nueva forma de contenido digital manipulado que circula por internet, correspondiendo por lo general a imágenes, videos y texto. Pero su característica principal es la alta calidad de la falsificación; de ahí el concepto Deep.

El objetivo más común de las Deepfakes son las celebridades de la industria cultural. Sus imágenes y vídeos son sometidos a la intervención de herramientas basadas en Inteligencia Artificial y Aprendizaje Automático, siendo adulteradas en su gestualidad e incluso en sus textos a través de discursos sintéticos, que logran como producto final, animaciones con un alto grado de similitud con imágenes o vídeos auténticos.

La aplicaciones y herramientas se pueden descargar e instalar en cualquier ordenador. Así mismo, existen portales en línea e incluso hay individuos que ofrecen el servicio previo pago. Por ello, prácticamente cualquier persona puede acceder con facilidad a convertirse en un artista del Deepfake sin manejar conocimientos avanzados en diseño digital o informática.

Y tal vez, precisamente por lo anterior, es que el uso masivo que se da a estas aplicaciones es, sin embargo, bastante burdo. Cerca de un 96% del contenido de vídeos Deepfakes de la red corresponden a contenido pornográfico y apenas un 4% se trataría de vídeos no-pornográficos que, sin embargo, aumentan su popularidad especialmente en la arena de la política.

Las más afectadas por estas intervenciones son las mujeres, generalmente del mundo del espectáculo -aunque no exclusivamente- a las que se les manipula para que sus rostros aparezcan en vídeos pornográficos en los que, por supuesto, no han participado realmente. Y, como es de esperar, esto se hace sin el consentimiento de las personas. Por supuesto, el impacto sobre las víctimas es terrible, generando desde vergüenza hasta sensación de inseguridad. Eso sin mencionar el menoscabo moral.

 Política

Sin subestimar el enorme daño que las Deepfakes generan a las celebridades o personas individuales que son víctimas de este tipo de intervenciones, tal como mencionábamos más arriba, aunque es un terreno incipiente, las Deepfakes comienzan a expandirse al ámbito de la política. Los más masificados son los denominados Shallowfakes -que se podría traducir como “vídeos falsos de poca profundidad” o también los Cheapfakes -o adulteraciones baratas.

Un ejemplo de estas manipulaciones de baja calidad es, por ejemplo, la que sufrió la congresista demócrata Nancy Pelosi en 2019, en la que el audio de un vídeo ampliamente difundido en redes sociales fue ralentizado haciéndola parecer ebria. Por supuesto, todo el mundo sabía que no lo estaba, pero el objetivo de hacer burla sobre la figura de Pelosi se cumplía a cabalidad.

Sin embargo, cuando las Deepfakes llegan a la política, su efecto puede ser derechamente desestabilizador. El año 2018, en Gabón, la crisis llevó a que el Ejército lanzara un golpe de Estado, ya que temían que un vídeo en el que aparecía el presidente del país, que ocultaba un mal estado de salud o la muerte del líder, fuera verídico, cosa que, cabe señalar, no era tal, ya que correspondía en realidad a una Deepfake.

Una situación similar ocurrió en Malasia, donde un vídeo Deepfake exhibía al Ministro de Economía en situaciones sexuales con otro hombre -en Malasia la homosexualidad es ilegal- armó un escándalo de proporciones. Eso sí, no hay indicios de que el vídeo haya sido efectivamente manipulado.

Ciberseguridad

En el ámbito de ciberseguridad la mayor preocupación es la aparición de perfiles fraudulentos en redes sociales como Twitter y LinkedIn. Muchos de ellos pretenden pertenecer a periodistas de nutrido currículum o a analistas políticos asociados a prestigiosas agencias internacionales. Pero no lo son. Solo se trata de rostros sintéticos difundiendo noticias o información falsa.

También se han documentado casos de personificación por voz sintética que permiten efectuar fraudes monetarios en función de la confianza de las partes involucradas. Y aunque esto aún está lejos de ser una tendencia masiva, es de prever que sea un nuevo campo de acción para los ciberdelincuentes.


Fuentes utilizadas en este artículo:

https://www.xataka.com/aplicaciones/wombo-ai-ultimo-apps-virales-deepfakes-elon-musk-donald-trump-tambien-pueden-cantar-temazos

https://www.xataka.com/robotica-e-ia/deep-nostalgia-ia-que-da-vida-a-fotografias-antiguas-convirtiendolas-impresionantes-videos

https://www.businessinsider.es/consejos-2-expertos-ciberseguridad-detectar-deepfakes-831319

https://www.businessinsider.es/consejos-2-expertos-ciberseguridad-detectar-deepfakes-831319

https://www.businessinsider.es/puedes-protegerte-deepfakes-fbi-837605

https://www.xataka.com/tag/deepfakes

https://regmedia.co.uk/2019/10/08/deepfake_report.pdf

https://news.sophos.com/es-es/2020/01/13/facebook-prohibe-los-deepfakes-pero-no-los-cheapfakes-o-shallowfakes/


Acerca del Autor de este Artículo

ANDRÉS FONSECA LÓPEZ

Profesional en Ciencias Sociales, Económicas y Gestión de Proyectos. Licenciado en Filosofía, estudios de Máster en Psicología y posgrados en Trabajo Social, Innovación y Emprendimiento. Especializado en Estudios del Desarrollo, Economía Política, Cooperación al Desarrollo y Derechos Humanos.


Oferta Formativa

Máster en Victimología y su Tratamiento Integral con Víctimas en Riesgo de Vulnerabilidad

Este Máster en Victimología nace con el propósito de estudiar las actuales tendencias y fenómenos victimológicos y de los sistemas de reparación como forma de prevención ante victimizaciones futuras.

Más información en nuestra página: https://www.iniseg.es/criminologia/masteres-oficiales/master-en-victimologia.html


Máster en Dirección y Gestión de la Ciberseguridad

La Ciberseguridad ha pasado de ser un actor secundario a convertirse en un elemento fundamental de la estrategia corporativa, cuya gestión debe planearse y ejecutarse mediante un enfoque general orientado al cumplimiento de los objetivos estratégicos.

Más información en nuestra página: https://www.iniseg.es/ciberseguridad/masteres-oficiales/master-en-direccion-y-gestion-de-la-ciberseguridad.html

 

Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedInEmail this to someonePrint this page

Dejar una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *


*