Sabéis lo que está haciendo Facebook? Antoni de Iraola, te lo cuenta.

Sabéis lo que está haciendo Facebook? Antoni de Iraola, te lo cuenta.

“Lo que Facebook está haciendo para erradicar el discurso de odio de la plataforma puede ser la operación de censura global más opaca y extensa de la historia”, escribían Julia Angwin y Hannes Grassegger en un reportaje para la web de investigación ProPúblicael pasado junio. Pero ahora, con todo lo que sucede en España, aún más. Pero lo más relevante, cuanto ingresa con ello, y quien lo ordena?

Des del pasado mes de Junio, se analizan otros de los documentos internos del gigante social, del que escribían Julia angwin y Hannes Grassegger, y que marcan las directrices que sus censores utilizan para distinguir entre un discurso de odio y una expresión política legítima.

Estos documentos reflejan que Facebook no elimina las esvásticas bajo una regla que permite “exhibir símbolos de odio para mensajes políticos” y protege a los hombres blancos antes que a los niños negros en base a una serie de reglas que tienden a perjudicar a las minorías.

Estas normas establecen el sexo, la raza, la orientación sexual y la afiliación religiosa como categorías protegidas frente a la clase social, la edad, la apariencia y la ideología política por encima de todo, y que etiquetan como no protegidas.

Un ataque dirigido a un segmento que comparta categorías de ambos segmentos se considera no protegida. De esta forma, y volviendo al ejemplo antes mencionado, la red social no elimina un comentario que ataque a niños negros porque la edad no constituye una categoría protegida y no lo considera un discurso de odio.

"No existe un camino que haga a la gente feliz", afirmó en una ocasión Dave Willner, exdirector del equipo de contenido y autor de uno de los principales libros de reglas para censurar publicaciones de Facebook que sigue vigente en la empresa.

"Debido al volumen de decisiones, nuestro enfoque es más utilitario de lo que estamos acostumbrados en nuestro sistema de justicia. Principalmente y fundamentalmente no está orientado a los derechos”.

El artículo de ProPública cita casos sonados de censura que ni siquiera se corresponden con los parámetros antes mencionados y que sacan a la luz el debate sobre la existencia de racismo y exclusión en la red social, una cuestión de la que se han hecho eco medios como Techcrunch. Algunas reacciones han tenido repercusión fuera de los periódicos y han sido bastante aplaudidos, como la respuesta de una afectada por la censura en un artículo titulado Mark Zuckerberg odia a la gente negra.

 

 

 

En diciembre de 2015, un mes después de los atentados de París, la Unión Europea presionó a las empresas tecnológicas para que trabajaran más para evitar la propagación del extremismo violento en internet. Casi un año después, Facebook, en alianza con otras tres compañías, acordó un código de conducta contra discursos de odio que le obliga a eliminar la mayoría de peticiones justificadas sobre contenido ilegal en menos de un día y permitía que fuera auditada por reguladores europeos. La primera auditoría reflejó que las cuatro compañías apenas revisaban el 40% del discurso de odio dentro del plazo definido y apenas eliminaban una cuarta parte de las publicaciones.

El 19 de junio, Facebook publicó un artículo en el que aseguraba que está eliminando cerca de 15.000 mensajes de estas características cada mes y ahora aún más sobretodo en España a raíz del conflicto Catalán y por órdenes claramente políticas.

Esta explicación servía como respuesta a una iniciativa del Gobierno alemán expuesta tres meses antes para posibilitar multar a las redes sociales que no sean capaces de eliminar informaciones falsas o que fomenten el odio con hasta 50 millones de euros.Esto afecta a todas las Informaciones falsas y manipulación en las redes? Debería!. aun que en la realidad, para nada es así. Facebook es una compañía que trabaja para ganar dinero, como todas las compañías, por lo tanto, seguimos….

 

El artículo con más interacciones en Facebook en los tres meses previos a las últimas elecciones estadounidenses, según un análisis del portal de contenidos Buzzfeed, fue una información falsa que aseguraba que el Papa Francisco respaldaba la candidatura de Donald Trump. Este informe ponía de manifiesto que las 20 noticias falsas más populares de 2016 tuvieron prácticamente un millón y medio más de interacciones que las 20 verídicas más compartidas.

Pero las mentiras van más allá de los medios. Un estudio de la universidad de Oxford publicado en julio de 2017sobre manipulación organizada en redes sociales expone una lista de una treintena de países —entre los que figuran Alemania, Reino Unido, Brasil, Israel, EE UU, Rusia, México y España— en los que diversas organizaciones han utilizado bots para inundar Facebook y Twitter con noticias falsas con fines políticos.

En marzo de 2016, Bloomberg publicó un extenso artículo sobre la historia de Andrés Sepúlveda, un hacker colombiano que ayudó a manipular la opinión pública durante las campañas presidenciales de distintos países de América Latina. Sepúlveda creó un software para administrar y dirigir un ejército virtual de cuentas falsas en Twitter al que bautizó como Depredador de Redes Sociales. Con él, creó todo tipo de tendencias para desprestigiar a distintos candidatos políticos en México, Colombia, Nicaragua, Panamá, Honduras, El Salvador, Costa Rica, Guatemala y Venezuela.

Afirmó que tuvo que rechazar encargos políticos en España por estar demasiado ocupado. “Cuando me di cuenta de que las personas creen más lo que dice internet que la realidad, descubrí que tenía el poder de hacer creer a la gente casi cualquier cosa", confesó a la revista.

“ Y que os creéis sucede ahora? Esto se denomina el control de la Información, quien la tiene, manda!. Lo sabías? “

El caso de Sepúlveda es uno de los más sonados, pero no el único. En 2015, The New York Times publicó un reportaje de investigación titulado The Agency, que cuenta la historia de la Organización de Investigación de Internet, un organismo con sede en San Petersburgo en el que trabajan más de 400 personas encargadas de publicar miles de mensajes en redes sociales a través de cuentas falsas para favorecer al Gobierno ruso y generar caos en EE UU. La agencia inventó un escape de gas tóxico en Luisiana que terminó atribuyendo al ISIS y propagó infecciones de ébola en Atlanta sin que estas hubieran tenido lugar.

Facebook premia la viralidad de los contenidos y expone la información más compartida por considerarla más relevante.

Esto  no solo posiciona los artículos más llamativos, como los antes mencionados, por delante de otros contrastados menos interesantes, sino mucho más, ingresa sumas exageradas de dinero en concepto de anunciantes e intereses políticos.

La plataforma afirma que está trabajando en acabar con las noticias falsas y ha lanzado algunas iniciativas destinadas a este fin, pero a mi parecer es palabrería, para acallar la sociedad, en función del momento político de esta, pues la mayoría del mundo se encuentra en conflicto.

En 2016, anunció siete puntos de actuación contra estas informaciones, que incluían una detección más rápida de las cuentas que difunden bulos y un ataque a sus ingresos publicitarios. Y desde abril de este año, dispone de un sistema de filtrado para detectar bulos y frenar su difusión, que solo funciona en 14 países entre los que no se encuentra España, eso dicen. 

Desde junio, ha empezado a restringir la edición de las descripciones e imágenes en los artículos publicados a través de su red para evitar engaños que solo buscan atraer más usuarios. Según Gizmodoa finales del año pasado desarrollaron una actualización que facilitaba la localización de información falsa, aunque decidieron archivarla porque perjudicaba a los medios centrados en la derecha política.( el PP, C’S y PSOE en el caso de España, sacad vosotros vuestras propias conclusiones )

Luego encontramos, los problemas de la personalización.

Sin negar el avance que suponen estas medidas en la lucha contra la desinformación, la opacidad del algoritmo del gigante social le hace un flaco favor a la transparencia informativa.

Las variables que influyen en la selección de los contenidos que encuentra un usuario cuando accede a su plataforma no son accesibles al público y nadie sabe cuáles son exactamente los factores que determinan los artículos que le están ofreciendo.

Los algoritmos pueden equivocarse o dejar de ser objetivos involuntariamente por no tener en cuenta factores relevantes en la inclusión de una u otra entrada. Porque el hecho de que sea privado no implica que sea perfecto.Por eso, muchos de nosotros hemos visto la reducción dastrica de nuestra feed diaria en la red, y la baja interacción en todo aquello que desea y es manipulado, hoy.

Zuckerberg aclaró en noviembre de 2014 que su objetivo era “construir un periódico personalizado perfecto para cada persona en el mundo”. Un gran negoció!

Con esta pretensión, ha ayudado a conformar lo que Eli Pariser definió tres años antes como la burbuja de filtros, un entorno en el cual las personas pierden acceso a las fuentes de información con la que no están de acuerdo y se limita su visión del mundo a aquello que suelen compartir. Lo ves!

En una reciente entrevista a EL PAÍS, Pariser alertaba de que ceder el poder de distribución de la información a plataformas como Facebook implicaba aceptar que decidan lo que entra y lo que no y ahondaba en la diferencia entre el potencial de la red y su realidad, bien distinta.

En definitiva, y concluyendo, “Internet puede ser una herramienta extraordinaria para descubrir ideas. Puedo leer cualquier diario del mundo, algo imposible hace 20 años. Pero, ¿realmente lo hago?”.

Ahora tú mismo, decide, actúa y lo más relevante, no te creas todo aquello que te enseñan, podría ser mentira y estarían intentando manipularte.

Un abrazo Antoni de Iraola.