Mamen Montoro

En tiempos de posverdad, son numerosas las formas en las que podemos encontrar representada la desinformación. Por ejemplo, a través de las “deepfakes”, que no son más que transformar un contenido audiovisual real en falso, consiguiendo así que el receptor no sepa diferenciar si lo que está viendo es verdad o mentira. Para definirlo de una manera más sencilla, un deepfake es un vídeo en el que se coloca o superpone digitalmente un rostro conocido en el cuerpo de otra persona que está diciendo o haciendo algo concreto, con el fin de hacer creer que es este personaje famoso el que ejecuta la acción.

Según la BBC, el concepto de deepfake procede del nombre de un internauta que compartía vídeos en los que suplantaba la identidad de celebridades en los cuerpos de actrices porno. Este primer contenido fake se compartió a través de la plataforma Reddit, creada en 2005 y destinada a la publicación de vídeos, imágenes o textos. A partir de este momento, debido a la gran acogida de estos vídeos, que se hacían virales, surgieron numerosas aplicaciones y herramientas gratuitas, como FakeApp, para que cualquier persona pudiese crearlos.

Las mujeres y su imagen

Emma Watson, Gal Gadot, Taylor Swift y Scarlett Johansson son algunas de las famosas que han visto atentada su imagen por las deepfakes. Y es que las mujeres son las grandes afectadas por esta nueva herramienta fake de crear contenido audiovisual, sobre todo utilizándolas para el mundo del porno, que fue donde empezó todo. Casi 9 millones de resultados ofrece Google si escribes “deepfake porn” en tu navegador, un dato más que gráfico de la cosificación que sufren las mujeres día a día, además del daño que esto supone para aquellas personas que ven su rostro representado en un cuerpo que no les corresponde.

Según el estudio deepfakes y la mujer en un imaginario falsificado y perverso” de Víctor Cerdán y Graciela Padilla, las deepfakes aún no están específicamente recogidas en la legislación española, tampoco en la europea. A pesar de esto, los autores de dichos vídeos sí que podrían ser castigados por un delito “contra el derecho a la propia imagen, injuria o un delito de odio”. Y es que, los derechos anteriormente mencionados, aunque no estén explícitamente registrados, sí que se podrían ver reflejados en el artículo 18 de la Constitución Española y en la Ley Orgánica 1/1982, del 5 de mayo, “sobre protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen, dedicado a la dignidad humana”.

Las redes sociales y su política

Frente al desafío que las deepfakes están suponiendo para internet y, en concreto, para las redes sociales, se está dedicando parte de la política de seguridad de estas para detectarlas y, posteriormente, combatirlas. Según la página web Xataka, Facebook es una de las redes que ya se ha puesto manos a la obra con el objetivo de eliminar todo el contenido falsificado que cumpla dos requisitos: que haya “sido editado o sintetizado” y que sea “producto de una inteligencia artificial o aprendizaje automático”. Sin embargo, los vídeos “parodia, satíricos o los publicados por políticos” no se eliminarán, ya que según Andrea Vallore, portavoz de Facebook, «si el contenido reviste algún interés periodístico, aunque viole la norma, evaluaremos caso por caso si debe permitirse su permanencia en la plataforma», explica Xataka.

Por el contrario, redes como Instagram o Twitter aún no han instalado ninguna norma en su política dedicada exclusivamente a deepfakes. De hecho, Adam Moserri, director ejecutivo de Instagram, en una entrevista para la CBS explicó que “estamos intentando evaluar si quisiéramos hacer eso y, de ser así, cómo definiríamos los deepfakes”.