Luis Andrés Sanabria Zaniboni 1
Resumen: La desinformación como herramienta política ha estado presente durante la historia de la humanidad. El engaño ha sido usado para la distracción, desmoralización o convencimiento del adversario, su capacidad de replantear las condiciones con las cuales se interpreta/proyecta alguna idea o proyecto, permite (in)justificar las condiciones y (des)legitimar sus consecuencias, las revelaciones de las acciones de Cambridge Analytica son parte del juego, y no la novedad como analizaremos en este texto.
Es a través de la desinformación en el ámbito político que encuentra cauce la posverdad. Esto esconde un artificio de la comunicación: la propaganda. Los trabajos de Edward Bernays dejan entrever muchas de las estrategias y técnicas que hoy presenciamos, por ejemplo, las narrativas para enaltecimiento o desmoralización, que adecuan los hechos a ideas para crear percepciones a favor o en contra de alguna persona, grupo u objetivo predefinido.
Es con los avances en las infocomunicaciones, que nos encontramos en una encrucijada que difícilmente puede dejarnos indiferentes; la clave se centra en la construcción y aplicación de algoritmos. La informatización de las comunicaciones, la compilación de datos, su estructura e interacción (big data) y la minería de datos han desarrollado un complejo territorio de disputa que siembra desconfianza y desasosiego ante la velocidad de sus cambios y la profundidad de sus consecuencias.
Analizamos el caso de la empresa Cambridge Analytica y su relación con campañas políticas, lo que nos plantea algunas interrogantes a profundizar: ¿Cómo potencian los algoritmos la desinformación? ¿Cuáles dimensiones/condiciones previas y consecuencias presenciamos ante esta relación algoritmos-desinformación? ¿Cuáles son las herramientas/procesos políticos que debemos fortalecer desde una perspectiva de defensa de los derechos de la ciudadanía y la construcción de relaciones democráticas?
Palabras-llave: Fake News; Desinformación; Algoritmos; Propaganda.
Resumo: A desinformação como ferramenta política tem estado presente durante a história da humanidade. O engano tem sido usado para distração, desmoralização ou convencimento do adversário, a sua capacidade de repensar as condições com as quais se interpreta/projeta alguma ideia ou projeto permite (in)justificar as condições e (des)legitimar as suas consequências. As revelações das ações da Cambridge Analytica são parte do jogo e não a novidade como analisaremos neste texto.
É através da desinformação na esfera política que a pós-verdade é encontrada. Isso esconde um artifício da comunicação: a propaganda. Os trabalhos de Edward Bernays deixam entrever muitas das estratégias e técnicas que hoje presenciamos, por exemplo, as narrativas para o enaltecimento ou desmoralização, que adequam os factos a ideias para criar perceções a favor ou contra alguma pessoa, grupo ou objetivo pré-definido.
É com os avanços nas infocomunicações, que nos encontramos numa encruzilhada que dificilmente nos pode deixa indiferentes; o segredo centra-se na construção e aplicação de algoritmos. A informatização das comunicações, a compilação de dados, a sua estrutura e interação (big data) e a exploração de dados desenvolveram um complexo território de disputa que semeia desconfiança e inquietação em relação à velocidade das suas mudanças e à profundidade das suas consequências.
Analisamos o caso da empresa Cambridge Analytica e a sua relação com as campanhas políticas, o que levanta algumas questões para aprofundar: Como potenciam os algoritmos a desinformação? Quais as dimensões/condições prévias e as consequências que se observam perante esta relação algoritmo-desinformação? Quais são as ferramentas/processos políticos que devemos fortalecer desde uma perspetiva de defesa dos direitos de cidadania e da construção de relações democráticas?
Palavras-chave: Fake News; Desinformação; Algoritmos; Propaganda.
Abstract: Misinformation as a political tool has been present during the history of mankind. The deception has been used for the distraction, demoralization or conviction of the adversary, its ability to rethink the conditions under which any idea or project is interpreted / projected, allows to (in)justify the conditions and (de)legitimize its consequences. The revelations of Cambridge Analytica actions are part of the game, and not the novelty as we will analyze in this text.
It is through misinformation in the political sphere that the post-truth is found. This hides an artifice of communication: propaganda. The works of Edward Bernays suggest many of the strategies and techniques that we witness today, for example, the narratives for exaltation or demoralization, which adapt the facts to ideas to create perceptions for or against any predefined person, group or objective.
It is with the advances in infocommunications, where we are at a crossroads that can hardly leave us indifferent: the key is focused on the construction and application of algorithms. The computerization of communications, the compilation of data, its structure and interaction (big data) and data mining have developed a complex territory of dispute that sows distrust and restlessness at the speed of its changes and the depth of its consequences.
We analyze the case of the Cambridge Analytica company and its relationship with political campaigns, which raises some questions to be deepen: How do algorithms enhance misinformation? What dimensions / preconditions and consequences do we witness to this algorithm-misinformation relationship? What are the political tools / processes that we must strengthen from a perspective of defending citizenship rights and building democratic relations?
Keywords: Fake News; Misinformation; Algorithms; Propaganda.
“Y recuerden: todos nuestros Ubiks han sido usados exclusivamente de acuerdo con las instrucciones”
Ubik – Philip K. Dick (1969)
“Ultrón nos cree unos monstruos. Lo que está mal en el mundo.
No sólo debemos derrotarlo; sino mostrar que no es así”
Los Vengadores: La Era de Ultrón (2015)
1. Fake News ¿Lo viejo de lo nuevo?
Hay una matriz de opinión que intenta hacernos pasar las tendencias de las Fake News como elementos propios de una época de redes sociales digitales, impulsadas por un ambiente de interconexión altamente inestable que no puede controlar los flujos de información de todas las personas que intervienen en él, y a razón de esto se dan condiciones ideales para el caos al que asistimos.
Sin embargo tras las revelaciones de Edward Snowden y Wikileaks, conocimos una representación que desnuda nuestra época, diferente a la que se anunció como la tierra prometida de la democratización, donde la amplia difusión de información y el casi nulo control por parte de los centros de poder hizo alucinar a toda una generación, pero terminó siendo un mero espejismo, y más bien el control y orden son parte de la norma, ya que “el avance de la tecnología de la información encarnado por Google anuncia la muerte de la privacidad de la mayoría de las personas y reconduce al mundo al autoritarismo…la erosión de la privacidad individual en Occidente y la consiguiente centralización del poder hacen que los abusos resulten inevitables” (Assange, 2014; 70).
1.1. Cómo potencian los algoritmos la desinformación: ¿Qué hay de viejo?
“La propaganda es el brazo ejecutor del gobierno invisible”
Edwards Bernays
Unas de las principales conclusiones del periodista Gleen Greenwald tras conocer de primera mano las revelaciones de Edward Snowden, fue la necesidad de legitimación de sentidos que necesitan las elites dominantes a través de perjuicios para fortalecer una identidad de exclusión, por esto destacaba que “Las expansiones radicales del poder suelen implantarse así: convenciendo a la gente de que afectan solo a un grupo concreto, diferenciado. Dejando a un lado sus obvios puntos débiles – no nos oponemos al racismo porque va dirigido a una minoría, o nos da igual el hambre porque disfrutamos de abundante comida – , la postura refleja casi siempre cortedad de miras” (Greenwald, 2014; 248).
Una de las formas de construcción de sentidos es a través de la estructura de contenidos que conforma la información, para impactar a través de los diversos canales de comunicación. Las Fake Newsson un claro ejemplo: en lo particular no sólo representan informaciones tendenciosas o manipuladas, sino explícitamente engaños dirigidos. Aquí surge la necesidad de ubicar esta modalidad en un entramado mayor de relaciones de poder, ya que “son informaciones falsas diseñadas para hacerse pasar por noticias con el objetivo de difundir un engaño o una desinformación deliberada para obtener un fin político o financiero” (Amorós, 2018; 35).
Centrémonos ahora en este aspecto: informaciones diseñadas para garantizar objetivos. De esta manera hallamos la presencia de lo viejo: “La Propaganda” un concepto fundamental para el siglo XX, que permite articular las dimensiones de diseño de información para obtención de objetivo(s).
Un personaje clave para entenderla fue Edward Bernays 2 quién contribuyó a la formulación teórica de este concepto, que lo definió como “el intento consecuente y duradero de crear o dar forma a los acontecimientos con el objetivo de influir sobre las relaciones del público con una empresa, idea o grupo” (Bernays, 2010; 33). Hay elementos centrales que debemos tener siempre en consideración cuando pensamos la relación entre Fake News y propaganda, ya que ambas comparten la característica central por la “creación de circunstancias, resaltando actos significativos y escenificando asuntos de importancia” (Bernays, 2010; 142).
Siguiendo a Bernays “La nueva propaganda no sólo se ocupa del individuo o de la mente colectiva, sino también y especialmente de la anatomía de la sociedad, con sus formaciones y lealtades de grupos entrelazadas” (2010; 36). Estos aspectos nos permiten encontrar elementos que relacionan las Fake News como una forma de propaganda, ya que procura relacionarse entre las lealtades de los grupos, y así influir en las posiciones políticas de estos actores a favor o en contra de una determinada concepción, categoría o proyecto.
Lo viejo no termina ahí, las Fake News no desean ser reconocidas como mentiras o información falsa, ni mucho menos intencionada para la obtención de cierto fin, sino todo lo contrario, que sea reconocida como “verdad”. Esta tentación también se desarrolló en las dimensiones de la propaganda durante los períodos de guerra, cuando las diversas agencias gubernamentales de espionaje la llegaron a conocer y clasificar como Propaganda Negra.
Esta modalidad se caracterizó por esconder “su origen detrás de nombres falsos y, habitualmente, da a entender que su origen se encuentra en organizaciones clandestinas dentro del país enemigo que no están necesariamente en contra de su gobierno. Algunas veces finge nacer del público objetivo de las propias autoridades” (Newcourt-Nowodworski, 2006; 21). Esto llama la atención, ya que precisamente una de las características de las Fake News es la desaparición de la fuente y remplazar esto con el uso indiscriminado de criterios (acreditaciones falsas, usar opiniones como criterios técnicos, etc) para justificar la supuesta “veracidad”.
Durante los períodos de guerra, fue habitual su uso para desconcertar y generar errores de información en las líneas enemigas, para capitalizar acciones que de otra forma hubieran sido previstas por los adversarios. Por esta razón el “éxito de la propaganda negra depende de la total ocultación de su verdadero origen” (Newcourt-Nowodworski, 2006; 21), este aspecto es relevante, ya que las Fake News necesitan también ocultar su origen, para no evidenciar sus intenciones.
Cabe mencionar que precisamente unas de las características de las Fake News es su capacidad de validarse como murmullo; la fuente no es importante, sino sólo la impresión que genera. Es así que dentro de su accionar toman relevancia “los rumores, como cualquier otro instrumento de propaganda, se crean con propósitos definidos y concretos com… socavar la moral de este, minar la confianza en sus dirigentes o confundir y engañar… un rumor puede fundarse en la verdad, pero en cuanto empiece a circular ya se habrá librado de su parte verídica” (Newcourt-Nowodworski, 2006; 157-156).
Como hemos podido evidenciar, la propaganda negra y las Fake News encuentran puntos en común ya que ambas procuran como estrategia “dirigirse tanto a los temas como a las personalidades, y que debe estar disfrazada. Antes que crear nuevas dudas y discusiones, debe aprovecharse de las existentes, aproximándose a ellas de manera indirecta. Debe ser dinámica, respondiendo instantáneamente a los cambios que se den. No se valdrá de conceptos abstractos como “patriotismo, libertad o esperanza”. Su mensaje deberá ser concreto e, idealmente, combinar elementos sociales y egoístas” (Newcourt-Nowodworski, 2006; 25).
Este entramado nos lleva a identificar que hay mucho de viejo en las actuales tendencias de las Fake News, pero cabe entonces preguntarnos, ¿qué representa esto para las infocomunicaciones de hoy? La pregunta no es a la deriva, sino que busca evidenciar cómo lograr situar la posición de las Fake News dentro del actual entramado de redes digitales. En estos tiempos que corren a través de las autopistas de la información, hemos llegado a percatarnos que no todo lo que se encuentran es fiable, ni tampoco inocente.
1.2. Cómo potencian los algoritmos la desinformación: ¿Qué hay de nuevo en las Fake News?
Hay un elemento clave para entender esta época, el desarrollo de las tecnociencias en los últimos 60 años y sus implicaciones políticas para nuestras sociedades. Pablo González Casanova nos describe cómo estas tecnociencias, en su dimensión de la información construyen los parámetros disciplinantes de nuestra sociedad:
“las nuevas matemáticas del control o de la información, de la teoría de los juegos, de la investigación de operaciones, de los modelos, las simulaciones y los escenarios, combinadas con los estudios sobre los “dispositivos inteligentes” sobre “ingenierías inteligentes”, sobre “control de la incertidumbre” y de los pasos equivocados; permiten también establecer más redes y más rutas óptimas, así como mejorar y corregir las decisiones en la defensa y creación de una sociedad posible que imponga sus creencias para el dominio de lo que se ha llamado humano” (González, 2005; 387).
Ante esto, es necesario empezar a reflexionar sobre la importancia de ¿Cómo estamos delineando nuestras categorías de percepción y reflexión?, para lograr problematizar: ¿Qué instrumentos están utilizando para delimitar en nuestras sociedades los significados de las mismas?, esto toma relevancia ya que:
Esta época se sigue caracterizando por la preeminencia de los procesos informáticos en la construcción de esa percepción de verdad. Por esta razón no es extraño que:
“Las ciencias de la información sirven para mejorar la toma de decisiones y el control de los negocios. Las ciencias de la información, su captación y tratamiento de las informaciones, son “inseparables de los intereses específicos”, como dice Mosse. En ellas se traslucen las contradicciones de lo particular y general. Los “intereses conspiran” para decidir qué versión de la realidad son legítimas” (González, 2005; 189).
Es así como esta época a la que asistimos está siendo reflejo del poder de las elites dominantes, y las tecnociencias representan una de las herramientas más importantes en la disputa por la construcción de su legitimidad, es así “cómo tecnologías y como ideologías, las tecnociencias y las ciencias de la complejidad han contribuido, más allá de cualquier predicción, a reestructurar el poder y eficacia de las súper potencias y de las macro-empresas” (González, 2005; 393).
2. Algoritmos y desinformación… Pero ¿Cómo llegamos a esto?
“Ante el descontento social, las autoridades suelen tener dos opciones: apaciguar a la población
con concesiones simbólicas o reforzar el control.”
(Greenwald, G. 2014; 221)
En el marco de los procesos descritos anteriormente sobre las ciencias de la información y las nuevas matemáticas, se ha impulsado un campo de diseño y profundización que viene marcando nuestra época, precisamente por la alta dependencia cotidiana y la entrega de procesos claves de nuestras sociedades, desde el respaldo de información hasta un extremo por ejemplo como la gestión de producción de los alimentos, lo que lleva a pensar que el mundo informático está delineando nuestra época, y la clave para su desarrollo es el “algoritmo”.
Su definición parece simple: se trata de una secuencia de instrucciones que representan un modelo de solución para determinado problema. También puede considerarse un conjunto de instrucciones que siguiendo en orden se obtiene la resolución de un problema.
Sin embargo, la situación se complejiza ya que para el desarrollo de los algoritmos es necesario conocimientos en informática avanzados y la mayoría de los existentes se encuentran protegidos por las leyes de derecho de propiedad intelectual, lo cual en primera instancia nos impide conocer cuál es la secuencia de instrucción. Este es un elemento clave para comprender de qué posición parte, cómo determina el orden y los resultados, que criterios utiliza para esto y cuáles son las relaciones que establece.
Una vez puesto en marcha el algoritmo “las máquinas de procesamiento de datos filtran nuestros datos por su cuenta, buscando nuestro hábitos, esperanzas, temores y deseos. Con el aprendizaje automático, un campo de inteligencia artificial de rápido crecimiento, el ordenador se sumerge en los datos y sigue sencillas instrucciones básicas. El algoritmo encuentra patrones por sí solo y después, con el paso del tiempo, los conecta con los resultados” (O´Neil, 2017; 95-96).
Precisamente aquí encontramos el elemento central del por qué es fundamental la construcción de esa secuencia de instrucciones, ya que el algoritmo puede re-construir su ordenamiento a través de la interacción/recopilación de los datos almacenados no sólo para encontrar patrones, sino también crearlos.
Por esta razón el mundo actual de las infocomunicaciones, en su deriva informática son altamente “opacas, nadie las cuestiona, no dan ningún tipo de explicaciones y operan a tal escala que clasifican, tratan y “optimizan” a millones de personas. Al confundir sus resultados con la realidad sobre el terreno, la mayoría de ellas crean bucles de retroalimentación perniciosos” (O´Neil, 2017; 21).
Este bucle de retroalimentación se caracteriza precisamente por las consecuencias que traen consigo los filtros personalizados que “pueden perturbar de dos maneras importantes nuestro equilibrio cognitivo entre el fortalecimiento de nuestras ideas existentes y la adquisición de otras nuevas. En primer lugar, el filtro nos acerca con ideas con las que ya estamos familiarizados… En segundo lugar, eliminar de nuestro entorno algunos elementos claves que nos hacen querer aprender” (Pariser, 2017; 89).
Llegando a este punto encontramos el riesgo que estamos viviendo: la articulación entre las Fake News entendidas como propaganda y la utilización de algoritmos para crear una mayor difusión/influencia de estas mismas a través del uso del big data, es este escenario en que nos describe “el moderno marketing orientado al consumidor ofrece a los políticos nuevas vías para decir a grupos concretos de votantes lo que saben que esos electores quieren oír. Y cuando lo hacen, es más probable que dichos votantes acepten la información tal y como se la presentan porque confirma sus creencias anteriores, un fenómeno que los psicólogos llaman sesgo de confirmación” (O´Neil, 2017; 232).
Esta mezcla entre una infraestructura técnica capaz de generar vinculaciones a discreción y la intencionalidad política de engañar a través de contenidos tendenciosos o manipulados para favorecer de manera explícita a actores, que además pueden adquirir esta infraestructura como un servicio de comunicación estratégica, abre un escenario para plantearnos la desinformación como una herramienta política de posverdad, un desafío que adquiere dimensiones antes insospechadas.
2.1. Algoritmos y desinformación: ¿Quiénes pueden hacerlo?
“Si [el espionaje] se lo permitimos a los miembros de la sociedad más privilegiados por su riqueza,
política o poder militar, y no encontramos maneras de subordinarlos al público,
dejamos de ser sus socios, solo somos sus súbditos.”
Edward Snowden
Las secciones anteriores nos dan una descripción detallada de la relación entre la propaganda y las Fake News como herramienta política para la desinformación, ya que ambas expresiones representan dos lados de la misma moneda de la posverdad (distorsión intencionada de la realidad para beneficio de un grupo), pero ¿Cómo relacionar esto con los algoritmos?
Cómo se citó anteriormente, la propaganda procura la obtención de objetivos para una persona, grupo, empresa o Estado, y hoy se diversifican las herramientas de difusión y persuasión para favorecer estos fines ya que, dentro de la evolución de las tecnociencias, aparecen empresas, organizaciones y unidades estatales especializadas en el aprovechamiento de las potencialidades de las dinámicas que se permiten a través del big data.
Para aprovechar estas potencialidades, se requiere de una importante infraestructura. La constitución de Google o Facebook son claros ejemplos de la re-dimensión que adquieren las empresas dentro de este marco, su complejidad y dinámicas las vuelven altamente opacas para un gran sector de la sociedad.
Sin embargo, no sólo este tipo de empresas/organizaciones surgen, sino también aquellas dedicadas a la minería y análisis de datos (que permiten la optimización del big data), que tienen cómo activo principal el promover la posición/influencia de determinados clientes (partido político, empresas, etc), lo que podríamos identificar como una modalidad de “Relaciones Públicas” (otro nombre que obtuvo la Propaganda tras su paso por el siglo XX).
Estas empresas procuran a través de la obtención/creación de bases de datos de usuarios de plataformas y redes sociales, generar estrategias de comunicación para hacer llegar determinados mensajes con el fin de influir y persuadir sus concepciones y percepciones, según el interés del cliente. Esto se logra gracias al amplio conocimiento de cómo funcionan las redes de algoritmos existentes para trabajar el big data, para que les permiten influir y transformar a su conveniencia los flujos existentes de información.
Un claro ejemplo, es la existencia de un mercado de redes a través de bots 3, trolls 4 y cibertropas 5 a servicio de estas estrategias, que responden en muchos casos a “Perfiles automatizados…sus acciones son la parte más compleja de todo este proceso, y la más difícil de probar, por la dificultad de acceder a los algoritmos y los datos que almacenan de cada usuario las grandes empresas digitales” (Alandete, 2019; 145), la complejidad que representan estas empresas/organizaciones, son que al mismo tiempo son maquilas de intervenciones, donde para evitar la identificación como plataformas robotizadas, tienen participantes humanos para disimular los tipos de intervenciones, y así generar la percepción que su actividad es humana y no artificial.
Lo importante de la infraestructura que ofrecen estas empresas/organizaciones recae en la capacidad de reproducción y distribución de información que ofrecen en base al tratamiento a través de algoritmos sobre el big data, la posibilidad de generar interacciones sobre su mismo contenido es la llave para influir en el posicionamiento, ya que “Los algoritmos de Google, Facebook o Twitterson los encargados de canalizar y discriminar esa información, que tiene una vida propia después de haber sido publicada. La clave es la viralidad, la capacidad de hacer reaccionar a los lectores, que compartan esas noticias y ayudan en su difusión, muchas veces atendiendo, como se ha visto, sólo al titular o una imagen” (Alandete, 2019; 109).
Todos estos elementos generan la infraestructura perfecta para la constitución de plataformas para la difusión de Fake News con objetivos políticos de desinformar. El caso de Cambridge Analytica que veremos a continuación, es un caso paradigmático por la simplicidad de su accionar, pero la complejidad de sus relaciones.
2.2. Algoritmos y desinformación: Dura y pura propaganda en el siglo XXI
Debemos comprender que “la sociedad de la información era, para la clase dominante, poco más que un conjunto enorme de datos libres de fluir hacia sus centros de datos privados, desde donde se integraban en un sistema inteligente que después actuaba como una herramienta del todo útil de control mediante provisión de servicios de pago” (Cancela, 2019, 400).
Lo anterior quedó ejemplificado cuando en el año 2018 las investigaciones de varios medios de prensa estadounidenses y británicos revelaron que Cambridge Analytica 6 ofrecía a sus clientes el desarrollo de campañas electorales “sucias”, esto por medio de la obtención y el uso de datos personales de millones de usuarios de Facebook, esta información era procesada para diseñar campañas psicográficas (basadas en la personalidad, estilo de vida, intereses, aficiones y valores), ofrecieron así, la posibilidad de generar productos para públicos específicos al segmentar los contenidos y enfoques.
Precisamente, esto fue posible gracias a la minería de datos que habían obtenido de manera legal (compra de bases de datos) e “ilegal” (utilización de aplicaciones para aprovecharse de huecos de seguridad sin el consentimiento de las personas que participaban en la aplicación), lo cual les permitió conocer y utilizar información de los usuarios para generar contenidos que favorecieran las posiciones de su cliente, mediante la generación de contenido no necesariamente verificable, para influir de manera directa sobre las percepciones del público a través de campañas sucias, por ejemplo el envío de noticias manipuladas o inventadas, publicaciones desde perfiles falsos, y otros como instrumentos de persuasión.
Esta información que recopiló Cambridge Analytica le permitió saber cuál debía ser el contenido, tema y tono de un mensaje para persuadir de forma casi individualizada a cada persona, esto lo aprovechó para generar contenidos de Fake News expresando enfoques que reforzaron e incitaron las creencias de las personas objetivo, aprovechando para capitalizar las tendencias racistas, islamofóbicas o homofóbicas entre otras, precisamente distorsionando hechos, inventado relatos o testimonios.
Para comprender el contexto de esta empresa, es relevante saber que el propietario de Cambridge Analyticaes Robert Leroy Mercer un multimillonario estadounidense que logró amasar su fortuna a través de su incursión en los fondos de alto riesgo en los mercados financieros, debido a sus estudios en ciencias de la computación, ya que su incursión a este mundo lo hizo a través del diseño y puesta en práctica de algoritmos para influir en los mercados financieros, por lo cual como lo señalábamos más arriba, nada es inocente.
Sumado a lo anterior, vale señalar que después de este escándalo de 2018, Cambridge Analytica cerró, pero inmediatamente crearon otra empresa para los mismos propósitos llamada Emerdata Ltd.
Es así como se “reforzó un nuevo mito, donde los datos no eran una propiedad entendida como un bien común, sino como un conjunto de información que permitía a la clase dominante manejar a las masas de manera inteligente para mantenerlas recluidas en lo más profundo de la caverna” (Cancela, 2019, 401).
3. Desinformación como arma política ¿Qué podemos hacer ante ello?
Diálogo improbable:
George Orwell 7: “Hasta que no tengan conciencia de su fuerza, no se rebelarán, y hasta después de
haberse revelado, no serán conscientes. Ese es el problema.”
William Randolph Hearst 8: “Si no pasa nada, tendremos que hacer algo para remediarlo:
inventar la realidad.”
George Orwell: “En tiempos de engaño universal, decir la verdad es un acto revolucionario.”
William Randolph Hearst: “Usted suminístreme las ilustraciones, que yo le suministraré la guerra.”
George Orwell: “Toda la propaganda de guerra, todos los gritos y mentiras y odio, provienen
invariablemente de gente que no está peleando.”
Una vez llegados aquí, un primer elemento que debemos cuestionarnos es como están construyendo y presentan contenidos, que están poniendo en riesgo nuestras sociedades a través del uso de algoritmos para la difusión de desinformación con objetivos políticos, llegando a construir “conexiones entre big data, portales creadores de mentiras y rumores, millonarios de extrema derecha y partidos políticos ultras están construyendo una internacional del odio” (Monedero, 2018; 197).
Una primera aproximación para reconstruir esta ofensiva es identificar las formas como se presentan las Fake News, para este motivo presentamos la Tabla No. 1 donde se destacan algunas de las formas más utilizadas en la construcción de noticias falsas:
Tomado de: Alandete, D. (2019) Fake News: La nueva arma de destrucción masiva. Deusto. Barcelona. Pp 162-163 |
Tabla No – 1. Algunas formas en que se presenta la desinformación
Este aporte detallado en la Tabla No. 1 es relevante, ya que nos ofrece una clasificación para generar matrices de análisis para la lectura de medios, nos permite tener varias dimensiones de escrutinio de las informaciones que recibimos a diario.
Como comentamos, las Fake News están intencionadas para el engaño, esto profundiza la confusión e invisibilización de las relaciones, y los intereses que la promueven – en un sentido u otro – ponen en evidencia la tarea pendiente por una democratización de las relaciones de poder en estos ámbitos de producción y difusión de los conocimientos, ya que una de las consecuencias que estamos viviendo es la incapacidad de dudar y plantear los cuestionamientos sobre los canales de información que recibimos.
La introducción de la duda en nuestros procesos personales y colectivos se vuelve fundamental para la interpretación no sólo de la información que recibimos, sino también de sus canales, pero no de una manera mecánica, sino de forma tal que “la pregunta no puede limitarse al ámbito de la pregunta por la pregunta misma. Lo importante es relacionar, siempre que sea posible la pregunta y la respuesta con acciones que fueron realizadas o con acciones que pueden llegar a ser realizadas o que pueden volver a realizarse” (Freire y Faundez, 2013; 73) en torno por ejemplo a ¿Quién enuncia?, ¿Cómo se distribuye ese enunciado? ¿Qué relación tiene con nosotros/as? ¿Cómo nos afecta? y ¿Por qué dice eso? ¿A favor de qué o de quién? ¿En contra de qué o de quién?
3.1. Mediación pedagógica y los desafíos para estar en el mundo
Otro aspecto para la disputa de estas relaciones de poder y la necesaria construcción de sentidos, pasa por la medida que logremos reconocerlas, ya que sólo cuando “penetremos en las resistencias para entenderlas y vamos conociendo mejor las expresiones culturales y el lenguaje de las clases dominantes, logramos entender también cómo encarna la ideología dominante, cuáles son los vacíos que no consigue llenar o que sólo aparentemente y en función de la resistencia de las clases populares” (Freire y Faundez, 2013; 84).
Esto pasa por la re-invención de nuestras prácticas, la necesidad por construir un pensamiento crítico, no sólo individual, sino también colectivo que contribuya así a una “comprensión del sentido común de las clases populares – cómo interpretan su papel en el mundo, en la historia, cómo se ven en su relación con los liderazgos políticos -, la comprensión crítica de sus sueños, todo eso es indispensable para cualquier esfuerzo de lucha por la transformación de la sociedad” (Freire y Faundez, 2013; 84).
Como hemos visto, la relación entre desinformación y las personas se capitaliza precisamente sobre los gustos y preferencias, ante la ausencia del diálogo y acercamiento que persiste en nuestras sociedades, da como resultado el no entendimiento entre las personas, y permite dejar por la libre el espacio la interacción y persuasión a agentes que promueven intencionalmente la exacerbación de miedos y prejuicios.
Esto nos compromete a volver a analizar críticamente los procesos de construcción de sentido y diálogo en los que participamos, para constituir prácticas de mediación pedagógica en nuestras acciones e intervenciones que democraticen y cuestionen desde los propios lugares que viven y sienten las relaciones explicitas e implícitas que han desarrollado, para profundizar una re-lectura de sus percepciones y aspiraciones.
Estos acercamientos deberían partir de las realidades, necesidades y esperanzas de quienes participamos, vinculado al desafío de aprendizajes críticos para ser y estar en el mundo.
3.2. Disputar la comunidad en la era del Algoritmo
Hoy asistimos a procesos en los cuales la comunicación se transforma “en industria pesada. Cuando el poder económico pasa de quienes poseen los medios de producción a quienes tienen los medios de información, que pueden determinar el control de los medios de producción, hasta el problema de la alienación cambia de significado. Frente al espectro de una red de comunicación que se extiende y abarca el universo entero, cada ciudadano de este mundo se convierte en miembro de un nuevo proletariado” (Eco, 2010).
Esta lucha por la comunicación no pasa por la visión de censura, sino por el desafío de una lectura crítica de la realidad y las dimensiones en disputa de la comunicación, partiendo que:
“La batalla por la supervivencia del hombre como ser responsable en la Era de la Comunicación no se gana en el lugar de donde parte la comunicación sino en el lugar a donde llega. (…) precisamente en el momento en que los sistemas de comunicación prevén una sola fuente industrializada y un solo mensaje, que llegaría a una audiencia dispersa por todo el mundo, nosotros deberemos ser capaces de imaginar unos sistemas de comunicación complementarios que nos permitan llegar a cada grupo humano en particular, a cada miembro en particular, de la audiencia universal, para discutir el mensaje en su punto de llegada, a la luz de los códigos de llegada, confrontándolos con los códigos de partida” (Eco, 2010).
Por esta razón cobra fuerza la necesidad de la democratización de los espacios de socialización, la toma del espacio físico y público para el intercambio y contraste de ideas. Un ejemplo lo encontramos en las experiencias de la comunicación comunitarias, estas experiencias nos aportan algunos principios para fortalecer las prácticas comunicativas, que pueden servir de guía para construir matrices de análisis que favorezcan no sólo el cuestionamiento, sino la construcción de otras formas de comunicación que respondan a prácticas democratizadoras, en la Tabla No. 2 podemos encontrar algunas acciones para profundizar las acciones en este sentido:
Tomado de: Rojas, G., L.León., F. Pomareda. (2018) Comunicación Popular para la Defensa de las Autonomías. Guía Metodológica para la incidencia pública y política. Voces Nuestras. San José. Pp 5. |
Tabla No. 2 – Comunicación Comunitaria
Estas prácticas comunicativas presentadas en la Tabla No.2 anterior contribuyen a re-pensar las perspectivas, enfoques, la relevancia de construir nuestras propias formas de verificación de códigos y problematizar la interpretación de los mensajes que recibimos, son formas-modos que nos desafían a contribuir con prácticas al ejercicio de la comunicación como derecho, entendiendo esto en un amplio espectro de acción (medios impresos, radial, digital, etc).
La disputa que han abierto las Fake News a través de la ampliación de espectro de la desinformación, hace resaltar la importancia de estas prácticas comunitarias, ya que como señala Griselda Sánchez, su capacidad no depende de “la potencia del transmisor, sino con el hecho de representar intereses comunitarios compartidos, sea de una pequeña localidad en el campo, de una gran ciudad, un barrio, un sindicato, una comunidad universitaria, una cooperativa, una organización ecologista, etcétera. Pero no basta con representar estas preocupaciones: las radios comunitarias son participativas, el micrófono está abierto a todos, sin importar que se tenga o no un título de periodismo o de locutor” además nos señala la importancia de “los contenidos locales, la pertinencia lingüística y cultural. La programación debe responder a cualquier inquietud, grande o chica, y reflejar la realidad y cotidianidad de la gente” (Sánchez, 2016; 28).
Este acumulado de perspectivas y prácticas, nos refuerza que en los tiempos actuales:
“Podría suceder que estas formas no industriales de comunicación (de los love-in a los mítines estudiantiles, con sentadas en el campus universitario) pudieran llegar a ser las formas de una futura guerrilla de las comunicaciones. Una manifestación complementaria de las manifestaciones de la comunicación tecnológica, la corrección continua de las perspectivas, la verificación de los códigos, la interpretación siempre renovada de los mensajes de masas. El universo de la comunicación tecnológica sería entonces atravesado por grupos de guerrilleros de la comunicación, que reintroducirían una dimensión crítica en la recepción pasiva. La amenaza para quienes the medium is the message podría entonces llegar a ser, frente al medio y al mensaje, el retorno a la responsabilidad individual. Frente a la divinidad anónima de la Comunicación Tecnológica, nuestra respuesta bien podría ser: «Hágase nuestra voluntad, no la Tuya.»” (Eco, 2010).
Ante las Fake News que se potencian a través de la era del algoritmo como un horizonte amenazante que nos impone la posverdad de las elites dominantes, se levanta la posibilidad y la necesidad de profundizar la democratización real de la comunicación como derecho humano, partiendo de prácticas de educación y comunicación popular que nos permitan construir aprendizajes para ser y estar en el mundo.
4. Más que “conclusiones”, una hoja para el debate
“Si la prensa no habla
Nosotros damos los detalles
Pintando las paredes
Con aerosol en las calles”
Multiviral – Calle 13
Este apartado tiene como objetivo más que concluir algo, ser una invitación a profundizar algunos ejes temáticos para debatir, con el propósito de contribuir a mejores prácticas de lectura y análisis de nuestras realidades, pero también generar espacios de acción a partir de articulaciones comprometidas con las transformaciones de esas realidades.
4.1. Al respecto de las Noticias falsas:
- no son un fenómeno nuevo en el campo político, representa una estrategia impulsada por actores con el fin de influenciar la percepción a partir de objetivos determinados.
- en lo particular no sólo representan informaciones tendenciosas o manipuladas, sino explícitamente engaños dirigidos a públicos específicos.
- no desean ser reconocidas como mentiras o información falsa, procuran ser reconocidas como “verdad”.
- la característica dominante es la desaparición de la fuente y remplazar esto con el uso indiscriminado de criterios (acreditaciones falsas, usar opiniones como criterios técnicos, etc) para justificar la supuesta “veracidad”.
4.2. ¿Cómo potencian los algoritmos la desinformación?
- hay una alta dependencia cotidiana a los procesos informáticos, desde la entrega de información personal hasta procesos complejos financieros, esto favorece un desmedido espectro de influencia de los algoritmos.
- el algoritmo como herramienta puede re-construir su ordenamiento a través de la interacción/recopilación de los datos almacenados, lo que le permite no sólo encontrar patrones, sino también crearlos.
- el universo que abre su uso de algoritmos, sumado al uso de patentes para su protección, permite la confusión e invisibilización de las relaciones de poder existentes, y así ocultar los intereses que los promueven.
- gracias a la capacidad de segmentación y personalización de los mensajes, crea escenarios propicios para reforzar los sesgos de confirmación de las personas que reciben los mensajes y crear bucles de retroalimentación que inhibe la problematización de los contextos que viven.
4.3. ¿Qué proponer al debate?
- profundizar elementos y prácticas que favorezcan las capacidades de dudar y plantear los cuestionamientos sobre los canales y códigos de las informaciones que recibimos.
- debemos tener como horizonte de disputa no sólo el lugar donde se emite el mensaje, sino también los espacios donde se reciben, nuestras familias, nuestras diversas comunidades (estudio, trabajo, etc.) ya que ahí es donde interactúan los diversos procesos de construcción de sentidos.
- visibilizar no sólo las diversas relaciones de poder explicitas en nuestros contextos, sino también aquellas implícitas en las prácticas cotidianas, esto para favorecer formas de profundizar la re-lectura desde las propias percepciones y aspiraciones.
¿Cómo es nuestra lectura de este mundo hoy? Este debate abierto hace un llamado urgente a volver a re-mirar el mundo que nos rodea, ese donde vivimos y sentimos, para seguir desafiando nuestros aprendizajes ante los retos que nuestras realidades nos presentan.
[1] Costarricense. Licenciado en Relaciones Internacionales por la Universidad Nacional de Costa Rica. Investiga sobre epistemologías del sur, metodologías participativas y los desafíos de la Educación Popular en la formación política. Actualmente trabaja en el Centro de Estudios y Publicaciones Alforja de Costa Rica y colabora con el Consejo de Educación Popular de América Latina y el Caribe (CEAAL). Correo electrónico: luis@cepalforja.org.
[2] Edward Louis Bernays (1891–1995): Publicista, periodista y creador de la teoría de la propaganda y las relaciones públicas. Su principal obra es Propaganda publicada en 1928.
[3] Programa informático que realiza automáticamente tareas repetitivas en espacios de internet.
[4] Persona que publica mensajes provocadores o irrelevantes en una comunidad en línea (foro de discusión, sala de chat, comentarios de blog, entre otros) con la intención de provocar reacciones negativas por parte de los demás usuarios.
[5] Acción combinada de cuentas digitales de personalidades influyentes, trolls, bots y seguidores regulares para generar reacciones sobre determinado tema.
[6] Fue una compañía británica creada en 2013 perteneciente al conglomerado Strategic Communication Laboratories de origen estadounidense. Empresa dedicada a la minería de datos y el análisis de datos para la comunicación estratégica en procesos electorales. Cesó operaciones en 2018 tras un escándalo por la obtención ilegal de datos personales de usuarios de Facebook en 2014.
[7] George Orwell (1903-1950): escritor y periodista británico, comprometido con procesos de luchas sociales especialmente contra los procesos de totalitarismos. Se le conoce especialmente por sus obras de “Rebelión en la Granja” y “1984”, pero desarrolló una carrera muy fructífera como ensayista.
[8] William Randolph Hearst (1863-1951): periodista, empresario, político y magnate de la prensa estadounidense, es conocido como uno de los más poderosos personajes de la escena política y empresarial de su época. Se le conoció como una persona sin escrúpulos para utilizar todos los medios posibles con el fin de garantizar su posición e interés, la más recordada es su intervención para garantizar la Guerra Hispano-estadounidense y beneficiarse de la primicia para sus medios.
Referencias Bibiográficas
- Alandete, D. (2019). Fake News. La nueva arma de destrucción masiva. Barcelona: Editorial Deusto.
- Amorós, M. (2018). Fake News La verdad de las noticias Falsas. Barcelona: Plataforma Editorial.
- Assange, J. (2014). Cuando Google encontró a Wikileaks. Madrid: Clave Intelectual.
- Bernays, E. (2010). Propaganda. España: Melusina.
- Cancela, E. (2019). Despertar del Sueño Tecnológico. Crónica sobre la derrota de la democracia frente al capitalismo. Madrid: Akal.
- Eco, U. (15 de abril, 2010). Para una guerrilla semiológica. Aporrea. Recuperado de: https://www.aporrea.org/medios/a98858.html
- Freire, P. y A. Faundez (2013). Por una pedagogía de la Pregunta. Buenos Aires: Siglo Veintiuno Editores.
- Gonzalez, P. (2005). Las nuevas ciencias y las humanidades. De la Academia a la Política. México: Anthropos. Instituto de Investigaciones Sociales UNAM.
- Greenwald, G. (2014). Sin Lugar donde esconderse. Colombia: Ediciones B.
- Monedero, J. (2018). La izquierda que asaltó el algoritmo. Madrid: Catarata.
- Newcourt-Nowodworski, Stanley (2006) La propaganda negra en la segunda Guerra Mundial. Madrid: Algaba Ediciones.
- O´Neil, C. (2017). Armas de destrucción Matemática. Capitan Swing. Madrid.
- Pariser, E. (2011). El Filtro Burbuja. Cómo la red decide lo que leemos y lo que pensamos. Barcelona: Taurus.
- Rojas, G., L. M. León., F. Pomareda (2018) Comunicación Popular para la Defensa de las Autonomías. Guía Metodológica para la incidencia pública y política. Voces Nuestras. San José.
- Sánchez, G. (2016). Aire no te vendas. La lucha por el territorio desde las ondas. Oaxaca: IWGIA.