Qué piensa hacer Google con la "explosión" de los peligrosos deepfakes


Falsificación profunda. Ese es el significado de "deepfakes", la evolución de las fake news en formato video. La información digital "cooptada" por la manipulación, la inteligencia artificial y la viralización desmedida está en graves riesgos.Las deepfakes son, en pocas palabras, videos falsos de personas (generalmente famosas) modificadas para generar confusión.

Generalmente, se recurre a ellos para mostrar contenido pornográfico, los que históricamente son los más viralizados. Pero también hay videos que hacen decir a las personas frases que no dijeron o que muestran a funcionarios en situaciones grotescas hábilmente manipuladas. De ahi a la utilización de esos videos con fines políticos hay un paso. Y ese paso, ya se dio.

Aprender a diferenciar un video falso de uno auténtico es, en tiempos políticos y más aún en campaña, no solo necesario sino imprescindible.

Pero Google tiene un plan entre manos. Según cuenta Technology Review, la compañía estadounidense propone una solución para detectar a esos videos falsificados en vista a las elecciones presidenciales que se desarrollarán en Estados Unidos en 2020.

A la caza de las falsificaciones

Esta semana Google lanzó una base de datos abierta que contiene 3.000 videos manipulados, creados por ellos mismos. El objetivo del gigante de Internet es acelerar el desarrollo de herramientas para la detección de las deepfakes.

Para eso trabajó con decenas de actores, grabaron videos de esas personas hablando y realizando tareas cotidianas, y finalmente usaron algoritmos disponibles públicamente para alterar sus rostros.

Para crear su base de deepfakes, Google grabó videos con actores y manipuló sus rostros con algoritmos disponibles públicamente (Foto: DPA).

En el video unen el cuerpo de Jennifer Lawrence con la cara de Steve Buscemi 

Nota la fuente que Facebook también anunció que pondrá a disposición un catálogo similar, que se espera sea lanzado a fin del año en curso. Proyectos similares son impulsados por diferentes investigadores y universidades. Todos coinciden en el ánimo de "crear un gran corpus de ejemplos que puedan ayudar a capacitar y probar herramientas automatizadas de detección", señalan en la publicación del Instituto Tecnológico de Massachusetts.

Según advierten, el problema es que cuando se descubre una flaqueza en alguno de los algoritmos diseñados para falsificar videos y/o imágenes, esa falla puede ser pronto corregida. En tanto, la "caza" comienza nuevamente.

En ese contexto, expertos señalan que la solución no será únicamente técnica pues requiere acciones sociales, políticas y legales. Eso, además de una postura siempre crítica y atenta que exige, cada vez más, el consumo de contenido en esta era de la información mediada por la tecnología.

Viernes, 6 de diciembre de 2019