En las redes sociales ha empezado a circular un video deepfake de Lionel Messi, en el cual se le ve afirmando que él y su equipo han desarrollado una aplicación para ganar dinero, alegando incluso que esta se ha convertido en su principal fuente de ingreso.
Este tipo de tecnología, que ha alcanzado niveles de sofisticación alarmantes, ha sido utilizada para manipular la imagen de Messi, el renombrado futbolista, asociándolo falsamente con una aplicación de juegos llamada Wildcat Dive que se encuentra disponible únicamente para usuarios de iOS.
La simulación de la voz y la imagen de Messi en este video deepfake es tan convincente que ha logrado confundir a los seguidores y al público en general, llevándolos a creer que el futbolista realmente está detrás de la mencionada aplicación.
Sin embargo, se ha revelado que Wildcat Dive es, en realidad, una operación presumiblemente fraudulenta, diseñada para atraer a los usuarios con la promesa de ganancias económicas que finalmente resultan en pérdidas.
Entrevista de Migue Granados y Messi
El fraude se ejecutó modificando una entrevista real que Lionel Messi ofreció al programa argentino Olga, presentado por Migue Granados. Utilizando técnicas avanzadas, las voces tanto del presentador como de Messi fueron alteradas para encajar en la historia fabricada. En esta versión manipulada del video, se presenta a Messi promocionando Wildcat Dive, describiéndola como una de sus inversiones.
“¿Cuántas fuentes de ingresos tienes?”, pregunta Migue Granados en el video deepfake. Frente a esto, el presunto Messi le responde que además de ser futbolista, mantiene alianzas con otras marcas pero que “con su equipo, desarrolló Wildcat Dive”, la cual es su principal fuente de recursos.
En el video, se dice que con esta aplicación, los usuarios pueden ganar hasta 800.00 pesos al día y unos 400 millones de pesos mensuales.
Deepfakes de Taylor Swift
Los deepfakes no se limitan solo a promocionar aplicaciones fraudulentas. También se utilizan con intenciones más perturbadoras, como la ultra sexualización de famosas cantantes y actrices, incluyendo a Taylor Swift y Margot Robbie.
Se han vendido deepfakes que las muestran desnudas, invadiendo su privacidad y dignidad. Este uso indebido de la tecnología resalta la dimensión ética y los peligros asociados al abuso de estas herramientas en la creación de contenido falso y dañino.
¿Cómo identificar un deepfake?
En un entorno saturado de información, discernir entre lo real y lo fabricado requiere de un enfoque crítico y analítico.
Un ejemplo ilustrativo de esto es el deepfake asociado a Lionel Messi, donde un detalle tan sutil como el uso incorrecto de la conjugación verbal “tienes” en lugar de “tenés”, inusual en el dialecto argentino, sirve como una pista sobre la artificialidad del contenido.
Para detectar deepfakes, es primordial examinar el contexto en el que se presenta la información y buscar confirmación en fuentes confiables y reputadas.
La atención a los detalles visuales y auditivos puede revelar inconsistencias; los movimientos faciales que parecen antinaturales o una sincronización labial deficiente son indicios claros de manipulación. Además, es esencial estar alerta a la congruencia del lenguaje utilizado, ya que los errores o desvíos dialectales pueden ser indicativos de falsificación.
La tendencia de utilizar la notoriedad de figuras públicas para otorgar veracidad a estafas está ganando terreno, lo que nos obliga a ejercer una vigilancia constante sobre los contenidos que consumimos.
En esta era de manipulación avanzada de medios, el escepticismo saludable y la verificación meticulosa de fuentes son herramientas valiosas para proteger nuestra propia credulidad y salvaguardar la integridad de nuestro entorno informativo.
Ser capaces de identificar señales de alerta y aplicar técnicas de verificación puede hacer la diferencia entre ser engañados o mantenerse informados con precisión. Ante la sofisticación creciente de los engaños digitales, la capacidad para detectar y descartar información manipulada es más crucial que nunca.
Texto original de Infobae