Deepfakes: el riesgo de perder la confianza del usuario
Xavier Codó, vicepresidente y director general de Mitek en Iberia y LATAM
13/05/2020El vídeo falso mostró a Wilmès de un modo realista en apariencia: su rostro, sus gestos y su voz estaban muy bien recreados. El grupo de activismo climático Extinction Rebellion (XR) generó este contenido y lo difundió a través de sus canales de redes sociales. En una época en la que las noticias falsas y los bulos campan a sus anchas por la red, aparecen los deepfakes, que no son una novedad en cuanto a concepto o forma, pero sí en cuanto a realismo y grado de verosimilitud. En otras palabras, ahora son verdaderamente peligrosos.
Los deepfakes se están utilizando para producir identidades digitales y documentos de identidad falsificados de una forma barata y sin conocimientos demasiado profundos. Esta tecnología ha ido evolucionando en los últimos años hasta el punto de ofrecer resultados sorprendentes, falsificando la apariencia de celebridades y políticos. Esto se ha traducido en fake news que se expanden por todo Internet durante periodos críticos, como puede ser un proceso electoral o la actual pandemia.
Cualquiera que sepa manejar el software necesario puede crear en pocas horas un vídeo falso capaz de llevar a engaño a una gran cantidad de personas. Esto plantea una seria preocupación en 2020, cuando se avecinan unas elecciones presidenciales en Estados Unidos. La potencia norteamericana atraviesa un contexto político inestable, dentro de una creciente polarización ideológica que genera incertidumbre. La consultora de riesgos Eurasia lo tiene claro: Estados Unidos es el principal riesgo político este año.
En contextos como este, los deepfakes se vuelven especialmente nocivos, ya que suele utilizarse para suplantar a políticos y empresarios. Estos vídeos fraudulentos podrían ser una fuente de propaganda y afectar en cierta manera a los mercados financieros. Además, al ritmo que avanza esta tecnología, es cada vez más difícil identificar si se tratan de falsificaciones o no; por ello, son necesarios equipos especializados que trabajen con herramientas de reconocimiento de la identidad digital.
Los deepfakes son cada vez mejores, pero la industria también está desarrollando programas capaces de detectar si una imagen ha sido manipulada.
En concreto, hace falta la utilización de biometría y de métodos multimodales, que permiten detectar el fraude a través de varias fuentes de información de una persona, desde un documento de identidad a una sonrisa plasmada en un selfie. La adopción de la biométrica se encuentra en su primera etapa: solo el 17% de los usuarios prefieren verificar sus identidades a través de esta tecnología, pese a que es más segura que los métodos tradicionales que consideran más seguros.
Por ejemplo, los parpadeos continúan siendo una asignatura pendiente para los falsificadores, pues las caras manipuladas no ejecutan dicho gesto con la naturalidad que deberían. Los humanos solemos parpadear una vez entre cada dos u ocho segundos, durando cada parpadeo entre una y cuatro décimas de segundo. En un deepfake se aprecia fácilmente que este gesto se da mucho menos.
En este sentido, los deepfakes son cada vez mejores, pero la industria también está desarrollando programas capaces de detectar si una imagen ha sido manipulada. De por sí, es necesario aplicar el sentido común y buscar aquello que no tenga sentido, igual que lo haría un detective en una investigación. Hay que revisar, afinar la vista y el oído y valorar la coherencia del contenido. Un vídeo alarmante o excesivamente llamativo debe hacernos desconfiar. Y siempre debemos comprobar la fuente.
A medida que gobiernos y plataformas de redes sociales intensifican sus esfuerzos por frenar el uso de deepfakes, muchas empresas recurren a la tecnología para ayudar a verificar las identidades de los clientes a través de la inteligencia artificial y el aprendizaje automático. Esto minimiza las amenazas potenciales, incluso antes de que se introduzcan nuevas regulaciones destinadas a frenarlas. Los proveedores de tecnología deben estar siempre actualizados.
Muchas empresas recurren a la tecnología para ayudar a verificar las identidades de los clientes a través de la inteligencia artificial y el aprendizaje automático.
Las empresas tienen el deber de proteger la información biométrica que capturan de sus clientes o potenciales usuarios. Es ahora cuando hay que garantizar que estos datos y las identidades de los consumidores no se ven comprometidas y utilizadas para crear identidades falsas. Reducir el fraude online es clave para evitar pérdidas de millones de euros cada año en diferentes sectores, pero sobre todo para incrementar la seguridad de los datos personales y financieros de las personas.
Debido a la situación de pandemia, las personas han acogido las herramientas digitales para comprar, trabajar o gestionar su economía. Nos hemos conectado más que nunca y, si bien se han demostrado sobradamente las ventajas que tiene la tecnología para ello, también está en riesgo la seguridad y la confianza. Instituciones y empresas no debemos permitir que los usuarios pierdan ninguna. Es necesario que todos construyamos un escenario digital donde la identidad siempre esté verificada y la información sea veraz y rigurosa.