Aceleradores del odio

Según un estudio reciente del Instituto Reuters de la Universidad de Oxford, durante las primeras semanas de la pandemia las redes superaron a la TV en el acceso a noticias por primera vez. En Argentina, el 71% de los encuestados dijo acceder a noticias a través de Facebook y WhatsApp, principalmente. Esto ocurre a pesar la crisis de legitimidad que sufre en particular Facebook que, en los últimos tiempos estuvo envuelto en escándalos varios, entre el más resonante el de Cambridge Analytica, gracias al cual se supo de la filtración, comercialización y exploración de al menos 87 millones de cuentas de usuarios de todo el mundo.

En conjunto, los principales productos de Facebook (WhatsApp, Instagram, Messenger y el propio Facebook) suman unos 6.8 millardos de usuarios (miles de millones), apenas algo menos que la población total del planeta. El poderío de la empresa no tiene punto de comparación con ninguna otra red social (Twitter tiene algo menos de 400 millones de usuarios en el mundo) y la coloca en un lugar particular: se trata de una esfera privada donde tiene lugar buena parte de la conversación pública en la actualidad, una conversación pública cada vez más marcada por los discursos de odio, la incomprensión e incluso la violencia organizada.

La excandidata presidencial, Senadora estadunidense y profesora de Derecho de la Universidad de Harvard Elizabeth Warren, probó que Facebook difunde odio y discursos falsos por dinero. Warren creó una campaña en la plataforma en la que decía, falsamente, que Facebook apoyaba la candidatura de Donald Trump. El aviso falso se publicó sin problemas y la Senadora probó su punto: Facebook difunde odio y mentiras por dinero. En medio de su campaña afirmó que los gigantes tecnológicos ya son demasiado gigantes, y que es preciso “dividir Facebook, Google y Amazon”.

Facebook es plenamente consciente de que sus productos estrella son cada vez más espacios tóxicos que funcionan como propaladores de discursos de odio. Según una investigación reciente de The Wall Street Journal, Facebook sabe, al menos desde 2018, que sus algoritmos polarizan a los usuarios, y desalentó en su momento iniciativas para corregirlo. En un slide de una presentación interna de la empresa filtrada por el periódico puede leerse: “nuestros algoritmos explotan la atracción del cerebro humano hacia la división. Si no se controla, Facebook terminará proporcionando a los usuarios contenidos cada vez más divisivos en un esfuerzo por atraer su atención por más tiempo en la plataforma”.

La crisis de legitimidad de la empresa devino en la campaña de boicot #StopHateforProfit (Basta de odio por ingresos) que invitaba a los auspiciantes a pausar sus anuncios en la plataforma durante el mes de julio. En el mismo contexto, algunas marcas como Unilever o Coca-Cola entre otros gigantes, amenazaron con retirar sus inversiones publicitarias de Facebook si la empresa no tomaba medidas más activas para regular el discurso de odio.

Aunque se estima que la inversión de las grandes marcas apenas representa el 6% del total de ingresos publicitarios de Facebook (la red social vive básicamente de los miles de millones de pequeños comercios y particulares que promocionan allí sus actividades), no permaneció indiferente a tamaña crisis de relaciones públicas.

En los primeros tres meses de este año Facebook eliminó 9.6 millones de publicaciones con contenido que incitaba al odio y la violencia, el doble que en igual periodo del año anterior. El problema es que el filtrado de contenidos es en su mayoría algorítmico, por lo que el margen de error es enorme. Este año la plataforma removió automáticamente contenidos sobre la guerra civil en Siria, considerando que se trataba de “contenido extremista”. La empresa reconoció luego que ese filtrado fue un 98% automático. El algoritmo había sido creado en 2014 como reacción a ISIS que por entonces había comenzado a utilizar Facebook y YouTube como espacios de propaganda a los que subía videos de extrema violencia.

Aunque se estima que la empresa cuenta con unos 30 mil empleados (bastante precarizados) que trabajan para la consultora Accenture en Dublín en tareas de moderación, es evidente que la tercerización de la censura en una empresa privada no es una buena idea para la libertad de expresión. En particular porque las decisiones que toman empresas del tamaño de Facebook sobre qué discursos permanecen y circulan y cuáles no, cuáles son jerarquizados y cuáles ocultados, pueden tener, en relación a la libertad de expresión, más incidencia que las regulaciones legales de países o de organismos internacionales.

Dejar el tema de la regulación del discurso del odio enteramente en manos del Estado es también un arma de doble filo porque tan peligrosa puede ser la regulación privada discrecional de una empresa, como la regulación pública de un gobierno autoritario. En Puerto Rico una ley recientemente sancionada pena con una multa de USD 5.000 dólares y hasta tres años de cárcel a quien el gobierno considere que disemina noticias falsas sobre el Covid-19. Un nivel de vaguedad y discrecional temerarios.

El consenso entre los expertos de la sociedad civil en relación a qué hacer en relación al discurso del odio y la circulación de desinformación en redes sociales, se orienta a regular las plataformas respetando los estándares de Derechos Humanos que, para esta parte del mundo, emanan del Sistema Interamericano. Entre ellos, se sugieren regulaciones que respeten la inmunidad (evitar la responsabilidad objetiva) de las plataformas sobre contenidos publicados por terceros, al tiempo que se exija a las plataformas mayor transparencia, rendición de cuentas, debido proceso en la eliminación de contenidos y mecanismos para remedar posibles daños. Se trata, en todos los casos, de evitar regulaciones punitivistas que den incentivos a las plataformas para remover contenidos en exceso para evitar ser judicializadas.

Según una encuesta reciente el 44% de los consultados piensa que el periodismo promueve la grieta por estos días. El discurso de odio que irradian los medios tradicionales y algunos de sus periodistas estrella, encuentra en las redes sociales aliados ideales, que funcionan como cámaras que amplifican y aceleran la circulación del odio y la apología de la violencia. Una cuota de responsabilidad y de micro-poder tenemos también los usuarios, que debemos ser alfabetizados sobre cuáles son las mejores decisiones y prácticas para reducir la influencia de las expresiones violentas, cada vez que interactuamos en estos espacios.   

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s

WordPress.com.

Subir ↑

A %d blogueros les gusta esto: