febrero 09, 2021

Un poco de optimismo

Banner interno

Las redes sociales se convirtieron en una grave amenaza para las democracias, pero existe una luz al final del túnel.

 
Por Álvaro Montes
 

Lo que ocurrió - o mejor, lo que no ocurrió - tras la elección presidencial en Estados Unidos, permite pensar que el terrible dolor de cabeza de las redes sociales tiene solución. Se esperaba que las maniobras de tecno política que los asesores del presidente Trump habían preparado para sembrar de caos la atmósfera política norteamericana aprovechando la polarización del debate en línea, conducirían a un escenario apocalíptico. Pero no fue así. Y no lo fue porque la presión social y política obligó a las grandes plataformas tecnológicas que dominan el social media, a tomar medidas drásticas para controlar las noticias falsas y los mensajes de odio. Medidas drásticas que no habían querido adoptar antes, a pesar de los múltiples escándalos y problemas causados en varios lugares del mundo.

No se trata de alarmas nerviosas ni tecno escepticismo. Es un hecho que el genocidio en Myanmar contra la minoría musulmana Rohinya que tuvo lugar entre 2017 y 2018 fue atizada fundamentalmente a través de Facebook. Claro, se trata de un caso muy particular, en un país en donde Facebook es Internet. Prácticamente no existe una Web como la conocemos por acá, sino que el programa de Internet gratuito a través de esta red social tuvo en Myanmar éxito sin par y casi toda la población que se conecta, lo hace a través de Facebook.

Pero la polarización de los debates políticos ocurrió en muchos lugares del planeta en los últimos años. El común denominador detrás de los encendidos debates, los insultos, el matoneo contra cualquiera que piense diferente y las agresiones verbales, es un algoritmo. Ya no es posible sostener que las redes son plataformas neutrales en donde los ciudadanos pueden expresar libremente la opinión que los medios tradicionales les han negado. En realidad, un algoritmo cuidadosamente construido exacerba los ánimos cada mañana. Sonaba a ciencia ficción hasta hace un año, pero varios hechos pusieron en evidencia la manipulación tecnológica detrás del matoneo en las redes. Mucho antes que Netflix estrenara su impresionante documental "El dilema social", ya numerosos periodistas y expertos en estas cuestiones habían revelado el desarrollo intencional de un modelo que privilegia la información ultrajante y violenta sobre los contenidos más reposados y civilizados. Facebook y Twitter hacen especialmente visible - es decir, viralizan fácilmente - todo aquel contenido que genere reacciones, ira y ofensa, y lo muestra prioritariamente a quienes van a sentirse enervados. Dada la escala de penetración de estas plataformas, el impacto es enorme. 5.100 millones de humanos tienen teléfonos móviles, 4.500 millones se conectan a internet y 3.800 millones de personas están activas en las redes sociales.

IMG BlogLas redes sociales son adictivas, no por una carambola aleatoria, sino porque así fueron cuidadosamente planeadas. El sistema cerebral de recompensas produce dopamina cuando se satisface el deseo de experiencias nuevas. Y las redes proporcionan esa sensación. “Con el scroll infinito en Instagram el cerebro percibe que va a encontrar algo nuevo cada vez que el dedo desliza la pantalla, y tiende a buscar satisfacción”, explica la psicóloga Cristina Giraldo.

The Wall Street Journal reveló a comienzos del 2020 un informe interno que demuestra que Facebook utiliza un algoritmo orientado a potenciar la polarización de ideas entre los usuarios. Allí radica parte de su éxito. "Nuestros algoritmos explotan la atracción del cerebro humano hacia la división", dice una diapositiva de la presentación de dicho documento. Las revelaciones del diario indican que en un caso de estudio el 64 por ciento de las personas que se unieron a un grupo extremista en Facebook solo lo hicieron porque el algoritmo de la red se lo recomendó.

Pero la presión social hizo que, al finalizar el inolvidable año 2020, estas empresas adoptaran medidas. Facebook, Twitter, Google y YouTube, propiedad de Google, realizaron colectivamente más de 100 ejercicios de planificación de escenarios, lanzaron nuevas políticas que incluyen prohibiciones sobre declaraciones prematuras de victoria y llamadas a la violencia, y tomaron acciones de cumplimiento sin precedentes, según las compañías. Y funcionó.

No hubo un mundo apocalíptico tras la victoria de Joe Biden en Estados Unidos y podemos pensar con moderado optimismo, que es posible un mundo digital que controle el odio y las noticias falsas.

En Colombia y en la región también la ciudadanía se unió  a los reclamos que piden mayor responsabilidad de las plataformas sobre los contenidos que los usuarios publican en ellas. Según el informe "Evolución de los medios tradicionales en América Latina", encargado por la consultora Sherlock Communications, tres de cada cuatro consumidores en la región (75%) creen que Facebook debería ser responsable por la veracidad de la publicidad paga que está alojada en la plataforma. Y nueve de cada diez latinoamericanos han pedido a Facebook que verifique y elimine activamente la propaganda política.

Este año trae el inicio de las campañas políticas en Colombia. El mensaje del público es claro: es hora de asumir la responsabilidad y erradicar cualquier anuncio político engañoso y falso de las plataformas, opina Patrick O'Neill, gerente de Sherlock Communications.

El Consejo Nacional Electoral ya tomó algunas medidas preventivas sobre el uso de las redes para propaganda política. Las examinaremos más adelante.

Alvaro Montes
Alvaro Montes