En el año 2018, con la aparición de un vídeo de Obama que crearon unos investigadores en la Universidad de Washington, donde salía él dando un discurso pero que no era real, era un “DeepFake”, escribí un artículo y di alguna conferencia avisando de que esto representaría, más temprano que tarde, el fin de la democracia tal y como la conocemos.
La mayoría de la gente me decía que no era para tanto y que la democracia como sistema está asentada en “bases muy sólidas” para verse afectada por algo así.
En ese momento, hace 5 años, yo no veía el presente, intentaba visualizar el futuro y cómo eso podía ser utilizado por lo “buenos” y por los “no tan buenos”.
Yo he ayudado a políticos y a partidos políticos en asesorías de comunicación estratégica y sabía muy bien a lo que podía escalar esto en el ámbito político.
En aquellos días no me imaginaba que 5 años después se haría popular la Inteligencia Artificial, donde cualquiera puede crear imágenes donde es IMPOSIBLE detectar si son verdaderas o falsas. Pero no solo imágenes, sino audios y vídeos, y por eso la cosa se complica y explico por qué a continuación:
Las campañas políticas se basan por lo general en la ciencia (estudios del comportamiento humano, de psicología de masas, persuasión, comunicación estratégica, sociología y encuestas, etc.). Actualmente no se deja casi nada al azar, pero, con la volatilidad del voto (o un voto cada vez menos leal a unas siglas) las elecciones pueden dar un vuelco con hechos acaecidos poco antes de unas elecciones y eso las hace más vulnerables.
Imagina que vienen unas elecciones presidenciales y 5 días antes se distribuye por las redes sociales (miles de cuentas con trolls, robots, etc.) un vídeo de uno de los candidatos principales haciendo algo muy extremo y “siniestro”. Por ejemplo, consumiendo drogas, pegándole a su pareja, extremadamente borracho… o alguna otra situación que no escribo aquí para no ir a los extremos, pero se me ocurren peores. Todo especialista en gestión de crisis sabe que primero hay que determinar QUÉ ES una crisis, o sea, cuándo una situación se considera una crisis, qué umbral debe sobrepasar esa situación para tomar acción.
Imagina que se viraliza el vídeo (y sería lo lógico porque la repercusión sería descomunal. Muchas de las personas que no van a votar a ese candidato, o que le votan en contra, lo va a compartir) y sobrepasa en pocas horas el umbral crítico que han estipulado los asesores del político. Lo normal es que se enciendan todas las alarmas y se reaccione.
Sale el político, su jefe de campaña, los miembros de su partido, etc., en ruedas prensa a decir que el vídeo es falso, que es un “fake”, que van a investigar, etc. Sería lo normal, pero no…
Algunas personas creerán esos desmentidos (posiblemente una minoría muy afín al político), otras personas (también sus votantes, pero más periféricos) comenzarán a tener dudas porque lo que se comenta lo pueden ver en un vídeo y posiblemente sea cierto, y mucha gente creerá y defenderá que el vídeo es verdadero porque confirma sus propias creencias o deseos (el sesgo de confirmación de los votantes contrarios). Eso ya podría representar un vuelco en los resultados de las elecciones, salvo en casos excepcionales de mayorías súper absolutas.
En ese momento, la campaña de ese político se romperá en pedazos y se transformará en una cadena de desmentidos en todos los medios de comunicación para intentar probar que el vídeo es falso hasta el día de las elecciones, pero ¿cómo lo pruebas? Ahí hay un dilema ¡NO SE PUEDE! A menos de que la persona que ha creado el vídeo públicamente lo reconozca y lo asuma, pero aún así, ya el daño estará hecho en cierto porcentaje de la población.
Por eso he puesto el ejemplo de cinco días antes de las elecciones porque en cinco días no hay tiempo de recomponer una reputación dañada, pero sí hay tiempo de darle la vuelta a los resultados de unas elecciones con la IA.
Pero, esto no se queda allí. Te he puesto un ejemplo sencillo, de “parvulillos” de la comunicación estratégica.
Si este tipo de estrategias la desarrollan colegas con mucha experiencia en comunicación estratégica, posiblemente no hagan un vídeo, hagan 300 vídeos diferentes. Posiblemente no los distribuyan solo por redes sociales, sino también por WhatsApp y otras aplicaciones que no son tan públicas y donde será mucho más complicado detectarlas y reaccionar con tan poco tiempo.
Pero aquí viene algo que riza el rizo. Ahora, con la inteligencia artificial, ocurre que ya no hace falta que un equipo de expertos en comunicación estratégica o política “conspire” creando una campaña negra de este tipo, porque cualquier persona en su casa o con su móvil (en muy poco tiempo) lo va a poder hacer.
Entonces imagina no 300 sino 300.000 vídeos de ese político, y de otros, dando vueltas por redes sociales, WhatsApp, en los trabajos, universidades, etc. ¿En qué vamos a creer? ¿Qué va a ser verdad y qué no?
Si salen en los informativos de un canal de televisión diciendo que un vídeo es falso, dependerá de la credibilidad del medio el hecho de que la gente se lo crea o no. Si un “YouTuber” con millones de seguidores pone el vídeo, su credibilidad avalará indirectamente a ese vídeo como cierto, pero es que estamos hablando de miles de vídeos, fotografías y audios. Será imposible desmentirlos todos y hacerle el seguimiento necesario para detectarlos. Muchos se distribuirán y no llegarán a los grandes medios, pero circularán rápidamente por nuestros móviles.
Este caos parece ficticio, pero es muy real y lo tenemos a la vuelta de la esquina.
Entonces, al no tener la población en general un referente para definir qué es verdad y qué no de lo que está viendo en vídeos, fotografías o en audios, solo será “verdad” lo que diga la persona o el “ente” que más credibilidad tenga.
Pero claro, la credibilidad no la otorga ningún organismo público o algún “sello de calidad”. La credibilidad es algo subjetivo e INDIVIDUAL de cada persona. Para mí un canal de TV puede ser creíble y para otra persona todo lo contrario, más ahora con la polarización política tan intensa que vivimos.
Y, ¿por qué digo que la democracia llega a su fin?
Porque la decisión del voto se basará en situaciones que no sabremos si son o no verdaderas, en mensajes que no sabemos si realmente se dijeron, en hechos que no sabemos si realmente ocurrieron (aunque los veamos en un vídeo), y cada elección estarán expuesta a situaciones que pueden cambiar la dirección del voto de una buena parte de la población aplicando lo que describía arriba.
Cuando lo he contado en conferencias, algunos me comentan que no creen que los políticos se atrevan a hacer este tipo de cosas… jejeje… y yo les digo… ¿que no qué? Hombre, todos no, pero no dudo que haya más de uno que sí, y además, que le coja el gusto porque da resultados.
Imagina lo que ocurrirá con situaciones muy polarizadas, donde las emociones y los sentimientos son extremos, por ejemplo, el independentismo, el adoctrinamiento ideológico, etc. Se pueden crear “verdades falsas” a diario, 1000 por día si queremos que podremos ver en vídeos y fotografías para “demostrar su veracidad”.
Y llegará un momento, no creo que falte mucho, donde la democracia perderá sentido porque no habrá nada “verdadero” que pueda determinar el voto de una persona. Ni en sentido a favor de un partido político ni en contra. Y si algo es verdadero, igualmente no confiaremos que lo es. Todo lo que nos mueva a votar podrá ser falso. Podrías pensar “pero es que ahora es así, muchos políticos mienten…”, sí, sin duda, lamentablemente es algo generalizado en la política (con honrosas excepciones) pero esto ocurrirá con mucha mayor intensidad, sin “culpables” y veremos las mentiras en vídeos y fotografías “reales”. Es un dilema complejo y sin solución por el momento.
Una solución podría ser formar a los ciudadanos para que no compartan cosas que les llegan y que no estén muy seguros de que son verdad, pero eso ya se ha intentado con las “fakenews” y no ha sido posible. Si confirma lo que creemos y favorece al partido que nos gusta o perjudica al que detesto, lo compartiré todo lo que pueda… No veo eso como una solución, si acaso a muy largo plazo. Y con leyes tampoco se podrá porque en muchos casos será imposible determinar la veracidad, y menos aún, quién lo ha creado (pensemos no en uno, sino en cientos de miles de vídeos diferentes circulando). Solo se podría penalizar a las personas que los comparten siguiendo la cadena de envíos, cosa complicada dada la cantidad de material que podrá crear cada persona en su casa o los equipos de campaña organizados para tal fin.
Hasta ahora, en política se ha mentido y manipulado mucho, en diferentes niveles, pero mucho. Eso se ha logrado tergiversando palabras, desnaturalizando conceptos, contando medias verdades, mostrando partes de un vídeo y ocultando otras, ocultando documentos, haciendo campañas sucias o negras, etc., pero con la IA estamos ahora en otro nivel muy superior.
Una cosa es que un candidato mienta para obtener votos (lo cual ya es moralmente antidemocrático), y otra cosa es saber que todo lo que veamos y escuchemos de todos los candidatos y partidos PUEDE ser falso, creado con el fin de ganar unas elecciones.
A mí se me ocurren ahora mismo decenas de imágenes y “productos creados” que podrían cambiar la decisión del voto de una persona de centro derecha y de centro izquierda luego de visualizarlas o escucharlas, pero por aquí no voy a dar ideas a nadie…
Es posible que el mayor efecto de estas nuevas campañas “IA fake” (me acabo de inventar el término) se consiga no distribuyendo los contenidos en las grandes redes sociales públicas sino en redes privadas (grupos de WhatsApp, etc.) donde le solemos otorgar más credibilidad a lo que vemos porque nos lo ha enviado una persona que conocemos. Allí la velocidad de propagación puede ser menor, pero con un impacto superior e imposible de parar.
Si estás leyendo esto y crees que estoy exagerando, o crees que la gente tendrá el criterio suficiente para saber qué es verdad y qué no, te aseguro que no es así. Si piensas que a ti no te la “van a colar”, déjame decirte que seguramente ya lo han hecho en campañas publicitarias y no te has dado cuenta.
La psicología detrás de la toma de decisiones en los seres humanos está muy estudiada y los que hemos trabajado en esto sabemos exactamente qué puede hacer cambiar de opinión a una persona, o a cientos de miles. Basta con crearlo, convertirlo en “real” y distribuirlo por los canales que ya se tienen para que se transforme en “verdad”. En ese momento se consigue el cambio que se busca en esas elecciones.
Posiblemente, unos meses después de las elecciones, saldrá algún culpable de uno de los vídeos “fake”, pero el candidato que ha hecho la “jugarreta” tendré meses en el cargo y de allí no se irá ni con agua caliente. Sin embargo, eso será muy complicado. Primero, porque será casi imposible determinar quién ha sido, de hecho, será complicado determinar si el material es verdadero o falso. Segundo, porque no será un vídeo, serán cientos de miles de vídeos diferentes distribuidos sin piedad por toda red social y grupo de WhatsApp que exista.
Entonces, con este panorama que ya lo tenemos en frente de nuestras narices, y que no es ciencia ficción ¿dónde queda la democracia?
No queda…
Javier Galué
Fundador de consultoria.uno
Innovación y comunicación estratégica online.
Madrid, España.
