¿Conoces el término deepfake? ¿Podrías definirlo y explicar de qué forma nos afectan? ¿Crees que sabrías diferenciar este tipo de vídeo de uno real? ¿Consideras que los deepfake suponen un peligro para la sociedad? ¿Realmente es posible que la situación vaya a peor?
Todas esas preguntas se responderán a lo largo del presente artículo. Empezamos contextualizando qué son los deepfake. Seguimos exponiendo la evidencia científica en relación con nuestras capacidades para identificarlos y abordamos también el impacto que pueden tener en nuestra sociedad. Por último, hablamos sobre las perspectivas de futuro y las posibilidades que tenemos en el presente.
¿Qué son los deepfakes?
El término deepfake es una creación inglesa, un acrónimo, que junta varios conceptos. Por un lado, el término fake habla sobre la falsificación y, por otro, el deep hace referencia al deep learning que se traduciría como aprendizaje profundo. Se pretende conceptualizar esta creación de contenido falso mediante el aprendizaje constante y profundo de la inteligencia artificial (IA).
Esta herramienta de inteligencia artificial permite la edición de vídeos (falsos) para que parezcan reales. Como resultado, las personas que ven estos vídeos (auqnue también podrían ser archivos de voz o solo imagen) creen que están viendo a una determinada persona hablando sobre un determinado tema o mostrando ciertas conductas que en realidad no han ocurrido.
Somos malos detectando deepfakes
Un estudio reciente llevado a cabo en Reino Unido, y publicado en el Royal Society Open Science, ha estudiado la capacidad de las personas para identificar los deepfake. Los resultados son alarmantes puesto que señalan que la mayoría de las personas tienen problemas para detectarlos.
Encontraron que, incluso avisando a las personas de que había posibilidades de que alguno de los vídeos que verían era falso, las dificultades para identificarlos persistían. Estos resultados sugieren que, con frecuencia, las personas tienden a sobreestimar su capacidad de detección. Es decir, se creen más capaces de identificarlos de lo que realmente lo hacen.
¿Por qué es tan difícil darnos cuenta de que el contenido que estamos viendo no es real? Pueden ser diversos los factores que den respuesta a esta pregunta. Sin embargo, no se puede negar que este tipo de tecnologías han evolucionado y avanzado muchísimo en los algoritmos y las creaciones. Así pues, el contenido es tan realista que puede ser realmente complejo que el ojo humano detecte la falsedad.
El impacto de los deepfakes
Debido a los grandes avances que hace la IA constantemente, es necesario que tomemos conciencia del grave impacto que este tipo de contenido puede tener en nuestro día a día. Especialmente porque nos cuesta mucho identificarlo. Por un lado, el ser humano tiende a creer aquellas cosas que ve y/o escucha, especialmente si concuerdan con su sistema de valores, creencias y expectativas.
Esta dificultad para desconfiar de lo que vemos puede generar consecuencias en nuestro día a día. Uno de los ámbitos más destacados en este sentido es el tema de la desinformación, así como la propaganda. Si sumamos la evolución de las tecnologías —que genera contenido falso que nos cuesta identificar— con el extendido uso de las redes, obtenemos un entorno que es muy fácilmente manipulable.
La propaganda es el uso de la información, que a menudo ha sido manipulada, para influir en la opinión o las decisiones de las personas. Si bien esta técnica no es nueva en absoluto, es cierto que los avances de la IA hacen que sea mucho más fácil todavía falsear información y, por supuesto, influenciar en las personas.
A día de hoy, ya se han observado casos en los que se han utilizado los deepfake para atacar a personas, tanto anónimas como personajes públicos. Por si esto fuera poco, también se han usado este tipo de creaciones para atacar a determinados gobiernos y países. Es realmente necesario tomar conciencia de la gravedad del asunto puesto que este tipo de situaciones podrían desencadenar en serios conflictos.
Lo peor está por llegar
Una de las consecuencias que se observan a raíz de los deepfake es la dificultad que tienen algunas personas para confiar en la credibilidad de lo que ven. Puesto que nos cuesta tanto diferenciar qué contenido es real del que no lo es, es fácil que se genere una sensación de desconfianza y confusión generalizada.
Esta situación es grave puesto que la inteligencia artificial continúa aprendiendo constantemente y sofisticando sus herramientas. Esto sucede a la vez que las barreras, las dificultades, para acceder a este tipo de tecnología son cada vez menores. Es decir, cada vez es más fácil acceder a ellas y usarlas. Parece solo cuestión de tiempo que cualquier persona pueda tener este tipo de tecnología al alcance de su mano.
Si esto realmente sucediera, podría darse un crecimiento exponencial del número de vídeos deepfake que se compartan con fines de dañar a otras personas o entidades. Parece ser que las herramientas para detectar y combatir los vídeos falsos no se están desarrollando a la misma velocidad que las tecnologías que los crean y esto es un problema.
¿Qué podemos hacer?
Son diversos los puntos que deben tenerse en cuenta y desde los cuales es necesario intervenir. Por un lado, la generación de recursos que permitan detectar este tipo de contenido es necesaria. En este sentido, también las plataformas en las que se publican tienen una árdua tarea por delante en cuanto a la identificación y sanción del contenido falso.
Por otro lado, es crucial invertir en educación para la población con el fin de despertar el pensamiento crítico. Las personas deberían poder cuestionarse la credulidad del contenido que están observando, consumiendo y compartiendo con su entorno. En esta línea, nos puede ayudar, por ejemplo, el hecho de comprobar la fuente de la que proviene el contenido y tener en mente que, aunque pueda parecer real, existe la posibilidad de que no lo sea.
Por último, sería igualmente necesario que los gobiernos tomen conciencia de la gravedad de la situación y apliquen las medidas necesarias con el fin de regular el uso o la publicación de este tipo de contenido falso. Es necesario establecer límites, puesto que ya se han usado con fines dañinos e intenciones maliciosas.