Información

Información

Contenido exclusivo para suscriptores digitales

Facebook y Google ante el espejo

Los estadounidenses han tenido que escoger a un presidente considerado por la mayoría de los medios norteamericanos casi un apestado para que las propias empresas de comunicación hayan dado un puñetazo encima la mesa y cuestionado abiertamente la gestión que Google y Facebook (especialmente este último) realiza de la información que distribuye.

Ya nadie parece dudar de que la forma en la que Facebook muestra la información a sus usuarios puede condicionar su percepción de la realidad y tampoco de que una parte considerable de la información más compartida en esta red social es falsa.

La defensa que siempre han utilizado al respecto tanto Google como Facebook, además de negar la mayor, es que ellos no son medios de comunicación sino distribuidores de contenidos que acercan a la gente lo que está buscando o lo que le interesa. No obstante, el caso de las elecciones americanas ha puesto en primer plano algunas verdades que son incómodas para los gigantes de la nueva economía y preocupantes para las empresas y colectivos que intentan generar contenidos siguiendo las premisas clásicas del periodismo.

Por ejemplo, una investigación de Buzzfeed ha analizado la información compartida en algunas de las páginas que proliferan en Facebook expresamente decantadas hacia los demócratas o los republicanos. Estas páginas dirigidas a los públicos más convencidos son seguidas por millones de personas, en un fenómeno que John Herrman en el New York Times Magazine ha definido como una nueva visión "enferma e hipermilitante" de la política que "reorganiza las tácticas e imágenes más efectivas del activismo, promoción y periodismo en una nueva y potente mezcla" y en la que el principal objetivo es apelar a las emociones buscando que el lector comparta la información.

Pero lo más preocupante no es que millones de personas se informen por páginas en las que las visiones son sesgadas sino que, según Buzzfeed, la información publicada en ellas es, en gran medida, una mezcla de realidad y ficción, o directamente falsa; el 38% de las noticias publicadas en las páginas analizadas que apoyaban a los republicanos y el 19% en el caso de los demócratas no se correspondían con la realidad.

En ese sentido, la forma de compartir información en Facebook ha favorecido una visión de la política que apela a las emociones y no a los hechos, y que tan bien supieron utilizar a su favor los defensores del Brexit en Gran Bretaña. Arron Banks, un multimillonario que se dejó casi 6 millones de libras en la campaña del Leave explicaba el éxito de la misma comparándola con el "estilo americano" de Trump: "La campaña de la permanencia se basó en hechos, hechos, hechos. Pero los hechos no funcionan. Tienes que conectar con la gente emocionalmente".

No obstante, no hace falta irse a los Estados Unidos, solo tenemos que observar el auténtico despropósito que subyace tras una parte importante de las noticias que la red social nos recomienda expresamente basándose, supuestamente, en la relación con lo que estamos leyendo.

Así, si usted está viendo a través de Facebook una noticia de este mismo diario sobre un crimen machista, la red social puede recomendarle que visite una información "relacionada" proveniente de un diario satírico cuyo titular nos informa de que un joven es detenido "por esnifarse las cenizas de su abuela", o puede recomendarnos una noticia procedente de una web destinada a personas "que buscan la paz en sus almas", en la que podemos descubrir cómo "científicos encuentran un mensaje secreto de Dios en el ADN humano escrito en arameo". Y estas noticias que Facebook nos propone se convierten en muchos casos en las más compartidas.

Parece evidente que una cosa es que Facebook o Google sean una vía para la difusión de contenido producido por terceros, algo que beneficia a todas las partes y que acerca la información a los lectores, y otra muy distinta es que induzcan, de forma expresa y directa, a la lectura de contenido-basura a través de las búsquedas o de los enlaces relacionados. El resultado de esta dinámica solo puede ser la confusión entre la realidad y la ficción, y lo que es peor, que a los lectores cada vez les importe menos lo que es realmente cierto, y más lo que casa con sus ideas previas y reafirma sus convicciones.

Ya en las pasadas elecciones en Filipinas o en el referéndum sobre la paz en Colombia hubo múltiples quejas por la proliferación de información falsa, pero en esta ocasión, y después de que hasta el propio Obama hablara públicamente hace unos días en Berlín afirmando que "si todo parece ser lo mismo, no sabremos qué es lo que hay que proteger", parece que Google y Facebook se muestran dispuestos a tomar medidas.

El primero en dar el paso ha sido Google, anunciando que no permitirá a los medios que difundan noticias de este tipo financiarse a través de su servicio de publicidad. El propio Zuckerberg se ha comprometido también al respecto; tras una primera comunicación en la que consideraba una "idea loca" la posibilidad de que la distribución de noticias falsas hubiera influido en el resultado de las elecciones, ha decidido salir de nuevo a la palestra y a través de un mensaje detallado ha comentado que Facebook se toma en serio el problema y que trabaja en un paquete de siete medidas para atajarlo. Entre ellas se encuentran la detección, la verificación, la mejora de la calidad de las noticias relacionadas y el trabajo con los periodistas.

Google y Facebook se encuentran ante un dilema que puede condicionar su futuro, pero para buscar una salida al mismo deben antes asumir la tremenda responsabilidad social que supone ser ya la principal fuente de acceso a los medios de comunicación que generan contenidos. De la resolución de ese dilema dependerá también en buena parte el futuro del periodismo y la configuración de la capacidad crítica de la sociedad.

Lo último en INF+

Compartir el artículo

stats