Deepfake: engaño convincente (2)

BUHEDERA
    gfarber1948@gmail.com / @Farberismos

    WIKIPEDIA (editado): “También habría que destacar el momento histórico donde el explorador y médico estadounidense Frederick Cook presentó públicamente una serie de pruebas audiovisuales (archivos sonoros y fotografías) afirmando que había llegado al Polo Norte en 1908, cuando no fue así. Por suerte, al cabo de unos años se consiguió desmentir la falsa noticia. Es así como a partir de esta manipulación constante que se ha estado utilizando continuamente durante décadas, que el término mockumentary terminó contradiciéndose a sí mismo.

    Como explica Vicente Díaz Gandasegui:

    ‘El concepto de falsos documentales encierra una contradicción en sí misma por cuanto el adjetivo falso precede al sujeto documental, el cual hace referencia a un material que pretende reflejar la realidad. Realidad y falso son términos que en nuestra cultura se plantean tradicionalmente como opuestos pero, sin embargo, el desarrollo de tecnologías capaces de recrear la realidad con total fidelidad ha hecho que aparezcan estos espacios intermedios e híbridos que combinan la realidad y la irrealidad’.

    Finalmente, en 1997 se creó el que realmente se podría considerar el antecedente más cercano a lo que actualmente se conoce como deepfake. Se trata del programa Video Rewrite, el cual consiguió por primera vez modificar las imágenes de un video donde una persona hablaba para representar que estaba diciendo unas otras palabras reproducidas a partir de una pista de audio diferente. Este programa fue el primer sistema en establecer conexiones entre los sonidos producidos por el sujeto del vídeo y la forma de su cara mediante técnicas de aprendizaje automático de un ordenador.

    Técnicas de Uso

    Los Deepfakes utilizan los algoritmos RGAs del cual dos modelos de Aa (Aprendizaje automático) son presentados con objetivos antagónicos. El primer modelo de Aa es alimentado una base de datos de referentes visuales, ya sean fotografías o vídeos y con esta base empieza a generar imágenes falsificadas. El otro modelo por su parte se encarga de detectar las imágenes falsas creadas por el primero modelo, este ciclo se repite hasta que eventualmente el primer modelo logra generar una imagen que el segundo modelo no logra identificar como falsa.

    Teniendo lo anterior presente, es claro ahora entender por qué el uso de esta tecnología ha sido dirigida primordialmente a figuras públicas. Debido a la vasta cantidad de contenido audiovisual que existe de estas personas, es fácil alimentarlas a la base de datos del modelo para poder crear imágenes falsas convincentes.

    Métodos para combatir deepfakes

    Actualmente, las técnicas para identificar deepfakes han conseguido llegar a un nivel de precisión del 86.6 por ciento, lo cual está muy bien, pero en un futuro se tendría que poder asegurar llegar al 99 por ciento de seguridad y consistencia. Los métodos que hoy en día se están utilizando para identificar los deepfakes y por el momento han funcionado correctamente son varios.

    Uno de ellos es el de análisis de metadatos, información textual sobre la producción del archivo multimedia (cámara, ISO, data de creación...), para ver si la imagen ha estado manipulada previamente. Es posible modificar los metadatos pero la gran mayoría de archivos contienen la información de los programas de edición utilizados, facilitando así, la identificación de las intervenciones en los archivos. No es totalmente eficaz pero puede ser un buen método de detección preliminar de deepfakes.

    Otro sistema es analizando el nivel de error (ELA, Error Level Analysis) de los métodos de compresión de imágenes de archivos como JPG, que al comprimirse pierden información. Así pues, hace falta saber que las imágenes editadas acostumbran a tener áreas con diferentes niveles de artefactos de compresión, ya que han estado sometidas a varios sistemas de compresión.

    También se podría intentar identificar los artefactos visuales, residuos de la creación de rostros falsos con deepfakes, de los que se pueden destacar tres:

    1. Que la fusión de las diferentes imágenes utilizadas para crear la falsa no sea totalmente coherente y falle en consistencia global. Como por ejemplo, que el iris del ojo derecho tuviera un color diferente al izquierdo, con excepción de los pocos casos de heterocromía.

    2. Que se produzca un error de iluminación imprecisa y distorsionada en las figuras debido al intento de fusionar varias imágenes con diferente luz. Eso terminaría provocando que la imagen final no tuviera total coherencia lumínica.

    3. Que se produzca un error geométrico en los ajustes morfológicos de los rostros y figuras humanas, especialmente expresado en bordes fuertes o tacas muy contrastadas alrededor de los límites faciales de la máscara que afectarían zonas como la de la nariz, la cara o las cejas”.