Carlos Saura García, Universitat Jaume I y Patrici Calvo, Universitat Jaume I
Actualmente, las grandes corporaciones tecnológicas y los gobiernos han convertido los fenómenos de la “algoritmización” y la “sintetificacion” en su principal arma frente a los retos y desafíos de las democracias modernas.
En primer lugar, los bots sociales y políticos, especialmente su versión generativa, están colonizando la esfera pública –ese espacio de libertad donde la ciudadanía se sirve del diálogo y la deliberación para relacionarse y llegar a acuerdos sobre el sentido de algo en la democracia– y produciendo datos sintéticos masivos que pervierten y distorsionan tanto la realidad social y política como la opinión pública.
En segundo lugar, los políticos virtuales, es decir, políticos que prometen delegar todas las decisiones a algoritmos, se postulan como candidatos en los diferentes procesos electorales (Rusia, Dinamarca, Japón, Nueva Zelanda, Estados Unidos, Reino Unido, etc.) prometiendo neutralidad, exhaustividad y justicia frente a los sesgos de la toma de decisiones humanas.
Por otro lado, la “algoresfera política” –espacio de interacción controlado y gobernado por algoritmos donde la ciudadanía participa en la política–, creada y monopolizada por grandes plataformas digitales como Google, Apple, Microsoft, Amazon, Meta y X, entre otras, se ha consolidado como pilar esencial del funcionamiento de la sociedad y la democracia moderna.
Nuevas patologías y disfuncionalidades
Las grandes corporaciones gubernamentales y tecnológicas diseñan, promueven y difunden algoritmos con el objetivo de acrecentar su poder, controlar a la ciudadanía, manipular el voto, amordazar la opinión pública, polarizar la realidad social y política, etc..
Estos actores llevan dos décadas colonizando los entornos sociales, económicos y políticos (las calles, los hospitales, los mercados, los centros educativos, los hogares, los medios de transporte, los cuerpos de las personas, etc.) con dispositivos tecnológicos “algoritmizados”. Las consecuencias de esta situación se dejan sentir mediante un aumento exponencial de la aceleración social, de la automatización de las injusticias, de la irresponsabilidad política, del despotismo e imperialismo tecnológico y de la hibridación de lo humano y máquina en las relaciones sociales, entre otras cosas.
En lo referente a la esfera pública, los procesos de “algorimización”, “dataficación” y “sintetificación” que confluyen en ella producen patologías y disfuncionalidades que afectan a la buena salud de los sistemas democráticos. El desplazamiento de la esfera pública hacia el mundo digital ha facilitado y potenciado las injerencias de las grandes corporaciones tecnológicas y los gobiernos en la construcción de opinión pública. A través de contenidos personalizados, cámaras de eco, filtros burbuja y, sobre todo, procesos de “sintetificación” de la realidad política y social, los gigantes tecnológicos producen campos de distorsión de la realidad mediante contenidos sintéticos con un alto poder adictivo e influyente sobre la voluntad libre de la ciudadanía. Un claro ejemplo de esto ha sido la instrumentalización de la red social X por parte de su propietario, Elon Musk, en favor de Donald Trump en las elecciones presidenciales de Estados Unidos.
De los deepfakes a los deepsynthetics
Esta situación esta originando un nuevo fenómeno de perversión de la opinión pública: el deepsynthetic. Se trata del conjunto de datos sintéticos que, producido por una IA generativa (como GPT o Gemini), pretende influir subliminalmente en el comportamiento de la ciudadanía mediante un patrón oculto en el mensaje.
Mientras que la estrategia de los deepfakes consiste en propagar contenidos falsos prácticamente indetectables para distorsionar la percepción ciudadana sobre la realidad política, social, económica o cultural, la estrategia de los deepsynthetics radica en difundir contenidos impactantes que, sin necesidad de ocultar su carácter artificial, son capaces de producir emociones reactivas mediante un patrón interno.
Un ejemplo de deepsynthetic fue la imagen All eyes on Rafah. En pocas horas, no solo arrasó en las redes sociales, convirtiéndose en el meme más reproducido y con más “me gusta” de la historia, si no que además logró la mayor cuota de movilización ciudadana a favor del pueblo palestino desde el comienzo de la guerra.
Dentro de este contexto destaca también la espiral del silencio que producen las agresivas políticas de vigilancia masiva que estrangulan los espacios de libertad y ahogan la crítica. Se trata de la implantación por parte de los estados de multitud de cámaras, sensores y otros tipos de artefactos de vigilancia en el espacio público y, en algunos casos, también privado e íntimo. Un claro ejemplo de estas políticas de vigilancia social masiva y sus consecuencias sobre la ciudadanía se puede ver en Serbia.
A través de este despliegue tecnológico, las grandes corporaciones tecnológicas y los gobiernos ejercen un control sobre la ciudadanía cada vez más férreo y opresor, ralentizando e impidiendo la regeneración, desarrollo y buena salud de las democracias.
Contra la democracia sintética
En medio de este contexto cada vez más algoritmizado, artificial, sintético y acelerado de democracia, con consecuencias altamente negativas para el propio sistema democrático y la ciudadanía, cabe aunar esfuerzos para revertir esta deriva y redirigir los procesos democráticos con sentido de justicia y responsabilidad a través de la promoción de la libertad, la igualdad y la solidaridad.
Para ello, es necesario generar espacios de diálogo, discusión y acuerdo sobre la situación actual de las democracias modernas. Especialmente, en lo concerniente a la comprensión de los impactos y del cambio estructural que está sufriendo la esfera pública ante la rápida e implacable colonización algorítmica y la “sintetificación” de sus contenidos.
Carlos Saura García, Investigador predoctoral en el Departamento de Filosofia y Sociologia, Universitat Jaume I and Patrici Calvo, Profesor Titular de Filosofía moral, Universitat Jaume I
Este artículo fue publicado originalmente en The Conversation. Lea el original.