0%

Cómo mitigar el impacto de las falsificaciones

With deepfakes becoming more and more common — and more and more convincing — how can you protect your business?

Las falsificaciones son solo un desafortunado producto de los recientes desarrollos en el campo de la inteligencia artificial. Los medios falsos generados por algoritmos de aprendizaje automático han ganado mucha fuerza en los últimos años. La charla de Alyssa Miller en la Conferencia RSA 2020, titulada «Perdiendo nuestra realidad», proporciona algunas ideas sobre por qué es hora de considerar las falsificaciones como una verdadera amenaza (independientemente de que vaya a haber elecciones este año) y sobre lo que pueden hacer las empresas para mitigar el impacto en caso de sufrir un ataque de este tipo.

Cómo se llevan a cabo las falsificaciones

El enfoque más común para crear una falsificación es utilizar un sistema denominado GAN, o red generativa de adversarios. Las GAN consisten en dos redes neuronales profundas que compiten entre sí. Durante la preparación ambas redes se entrenan con imágenes reales. A continuación, comienza la parte adversaria, con una red que genera imágenes (de ahí el nombre de generadora) y otra que trata de determinar si la imagen es auténtica o falsa (esta última red se denomina discriminatoria).

Después de eso, la red generativa aprende, y aprende del resultado. Al mismo tiempo, la red discriminatoria aprende a mejorar su rendimiento. Con cada ciclo, ambas redes mejoran.

Una vez realizados, por ejemplo, un millón de ciclos de entrenamiento: La red neural generativa ha aprendido a generar imágenes falsas que una red neural igualmente avanzada no puede distinguir de las reales.

Este método es en realidad útil en muchas aplicaciones; dependiendo de los datos utilizados durante la preparación, la red generativa aprende a generar determinados tipos de imágenes.

Por supuesto, en el caso de las falsificaciones, el algoritmo se entrena utilizando fotos reales de ciertas personas, lo que resulta en una red que puede generar un número infinito de fotos convincentes (pero falsas) de la persona, preparadas para su integración en un vídeo. Métodos similares podrían generar audio falso, de hecho, es probable que los estafadores ya estén utilizando audio falso también.

Cuán convincentes han llegado a ser las falsificaciones

Los primeros vídeos falsos parecían ridículos, pero la tecnología ha evolucionado lo suficiente como para que dichos medios hayan llegado a ser increíblemente convincentes. Uno de los ejemplos más notables de falsificaciones espantosamente convincentes a partir de 2018 fue el falso vídeo de Barack Obama hablando sobre cosas que eran falsas (incluido un insulto dirigido al actual presidente de los Estados Unidos). A mediados de 2019, vimos un breve vídeo falso de Mark Zuckerberg en el cual se mostraba increíblemente honesto sobre el estado actual de la privacidad.

Para comprender lo mucho que ha mejorado la tecnología en este aspecto, observa el vídeo de abajo. El impresionista Jim Meskimen lo creó en colaboración con el falsificador especialista Sham00k. El primero fue el responsable de las voces, y el segundo aplicó los rostros de unas 20 personas famosas al vídeo utilizando un software de creación de falsificaciones. El resultado es verdaderamente fascinante.

Como dice Sham00k en la descripción de su vídeo entre bastidores, «el vídeo completo me llevó algo más de 250 horas de trabajo, 1 200 horas de metraje, 300. 000 imágenes y cerca de 1 terabyte de datos para crearlo» Dicho esto, hacer un vídeo de estas características no es una tarea sencilla. Pero una información falsa tan convincente puede tener potencialmente efectos masivos en los mercados o, por ejemplo, en las elecciones, lo que hace que el proceso parezca espantosamente fácil y barato.

Por este motivo, casi al mismo tiempo que se publicó el vídeo anteriormente mencionado, California prohibió los vídeos falsos relacionados con la política durante la campaña electoral. No obstante, el problema sigue estando ahí. Para empezar, los vídeos falsos en general son una forma de expresión, al igual que la sátira política. La prohibición de California no protege exactamente la libertad de expresión.

El segundo problema es tanto técnico como práctico: ¿Cómo se supone que se debe diferenciar un vídeo falso de uno real?

Cómo detectar las falsificaciones

El aprendizaje automático está de moda entre los científicos de todo el mundo, y el problema de las falsificaciones parece lo suficientemente interesante y desafiante como para tentar a muchos de ellos a estudiar el tema. Por ello, bastantes proyectos de investigación se han centrado en cómo utilizar el análisis de imágenes para detectar las falsificaciones.

Por ejemplo, un artículo publicado en junio de 2018 describe cómo el análisis de los parpadeos puede ayudar a detectar los vídeos falsos. La idea se base en que, por lo general, no hay suficientes fotos disponibles de una determinada persona parpadeando, por lo que las redes neuronales pueden no tener suficiente información como para entrenarse. De hecho, las personas que aparecían en la falsificación en el momento en que se publicó el documento parpadeaban de una forma demasiado rara para que fuese real, y si bien esta discrepancia a las personas les parece difícil de detectar, los análisis realizados por los ordenadores sí ayudan a diferenciar este tipo de parpadeo del real.

Dos documentos presentados en noviembre de 2018 sugerían la búsqueda de señales de gestos faciales poco naturales y poses de cabeza inconsistentes. Otro documento, esta vez de 2019, describió una sofisticada técnica que analiza las expresiones faciales y los movimientos típicos del patrón de habla de una persona.

No obstante, tal y como señala Miller, es poco probable que esos métodos tengan éxito a largo plazo. Lo que realmente hace esa investigación es proporcionar información a los creadores de las falsificaciones, ayudándolos a mejorar sus redes neuronales discriminatorias, lo que a su vez conduce a una mejor formación de las redes generativas y a una mejora adicional de las falsificaciones.

Utilización de las comunicaciones corporativas para mitigar las amenazas de falsificación

Teniendo en cuenta las cuestiones arriba mencionadas, ninguna solución puramente tecnológica va a ser muy efectiva en este momento para resolver los problemas creados por las falsificaciones. Pero existen otras opciones. En concreto, es posible mitigar estas amenazas manteniendo comunicaciones efectivas. Será necesario controlar la información relacionada con la empresa y estar preparados para controlar la narración en caso de que surja un caso de información falsa.

A continuación se resumen las sugerencias de Alyssa Miller para preparar a su empresa para hacer frente a la amenaza que supone la falsificación, las cuales también pueden ser útiles para hacer frente a otros tipos de percances de relaciones públicas:

  • Minimizar los canales de comunicación de la empresa;
  • Impulsa una distribución de información consistente;
  • Desarrollar un plan de respuesta en caso de desinformación (tratar dichos eventos como incidentes de seguridad);
  • Organizar una función centralizada de vigilancia y presentación de informes;
  • Fomentar una legislación responsable y la verificación de hechos en el sector privado;
  • Supervisar el desarrollo de las medidas de detección y prevención.

Fuente: https://www.kaspersky.com/blog/rsa2020-deepfakes-mitigation/34006/

Solicitar una demostración

Estamos seguros de que no hay nada mejor que resolver los problemas del mundo real y aquí te mostramos cómo lo hacemos

Get in touch