Caída de Facebook coincide con filtraciones contra la empresa

0
62
Caída de Facebook coincide con filtraciones contra la empresa

Sin previo aviso, las redes sociales FacebookInstagram WhatsApp dejaron de funcionar en el mediodía de hoy.

Mientras las redes de Mark Zuckerberg siguen offline, los usuarios aprovechan a desquitarse por Twitter.

Lunes negro

El día ya había empezado con el pie izquierdo para Facebook: hoy temprano se publicó una extensa entrevista con Francés Haugen, una ex empleada de la compañía que reveló datos e información controversial sobre la empresa.

Lejos del romanticismo de la meca de los informáticos, la realidad parece distar de lo sucede dentro de la empresa más famosa del planeta. «Es sustancialmente peor en que todo lo que había visto antes en otras plataformas«, cuenta Haugen.

Ahora, la denunciante de Facebook dice que la compañía incentiva el «contenido que enfada, polarizante y divisivo«.

Pero no es la primera que habla sobre esto. El CEO de Apple, Tim Cooke, comentó que estas redes priorizan «las teorías conspirativas y la incitación a la violencia» porque son temas que hacen participar a más personas en esas conversaciones.

De este modo, las empresas que gestionan estas plataformas sociales tienen la oportunidad de recopilar más información personal de la ciudadanía y así tienen más datos para vender.

Haugen dijo que lo que vio en Facebook fueron los conflictos de interés entre «lo que era bueno para el público y lo que era bueno para Facebook». Y aseguró que compañía optó siempre por optimizar sus propios intereses, que es ganar más dinero.

Por otro lado, afirmó que estudios internos muestran que la empresa «está mintiendo al público acerca de los avances significativos contra el odio, la violencia y la desinformación». Uno de los estudios de Facebook realizado este año y cuya información es revelada por Haugen, concluye que se estima que la empresa ha conseguido atajar el odio en las plataformas solamente entre un 3 y un 5% de lo que hay en total.

«La versión de Facebook que existe hoy en día puede fragmentar nuestras sociedades y causa violencia étnica en todo el mundo», dice Huagen.

Uno de los graves problemas que Haugen ve es que, como usuarios, se tiene el teléfono en las manos y acceder a información de un modo constante, a través de lo que Facebook nos va mostrando en nuestro ‘Feed‘. Y ahí entran en juego los famosos algoritmos que van decidiendo qué se muestra y qué no.

«Tenés tu teléfono. Podes ver 100 piezas de contenido si te sentas y te desplazas durante solo cinco minutos. Facebook tiene miles de opciones que podría mostrarte. El algoritmo elige entre esas opciones basándose en el tipo de contenido con el que más has interactuado en el pasado». Al mismo tiempo, los estudios de Facebook internos saben que el contenido que incita al odio, que es divisivo, que es polarizante, produce mayores reacciones», explica.

Para la ex directiva, mientras solo se prioriza el contenido con más reacciones que, a su vez suele ser el que propaga informaciones que provocan la ira de los lectores, los usuarios seguirán recibiendo cada vez más información de este estilo. Y para Facebook da igual que sea cierta o falsa la información. El algoritmo no prioriza este aspecto y dice Haugen que es desde 2018 que este aspecto está tan marcado.

«Facebook gana más dinero cuando se consume más contenido. La gente se involucra más con cosas que provocan una reacción emocional. Y a cuanta más rabia se les expone, más interactúan y más consumen», añadió.Te puede interesar

Noticia en desarrollo…

La extrabajadora de Facebook que ha provocado el mayor escándalo de malas prácticas en la red social desde el de Cambridge Analytica ha elegido dar la cara. Su nombre es Frances Haugen y trabajó en la corporación de Mark Zuckerberg hasta el pasado mayo, momento en el que decidió abandonarla y filtrar una gran cantidad de documentos internos. Esos informes, publicados por el Wall Street Journal, han mostrado que la multinacional era consciente de que su actividad provoca un impacto tóxico en la sociedad, pero que en la mayoría de ocasiones no hace nada para remediarlo.

«Había conflictos de interés entre lo que era bueno para la sociedad y lo que era bueno para Facebook», explicó Haugen este domingo en el programa estadounidense de máxima audiencia 60 Minutos, de la CBS. «Facebook, una y otra vez, optó por optimizar sus propios intereses, como ganar más dinero», aseveró.

Esta extrabajadora de Facebook, ingeniera informática de 37 años, formaba parte del equipo de «Integridad Cívica» de la compañía. Su misión era asegurarse de que la empresa tuviera «un rol positivo en la sociedad». Decidió convertirse en una garganta profunda de Facebook porque la multinacional se había convertido en todo lo contrario a eso.

Los documentos filtrados por Haugen han revelado Facebook sabe que Instagram es tóxico para muchas adolescentes, ya que les hace sentirse peor con su cuerpo, pero que no actúa para evitarlo. También que los empleados de la red social descubrieron que ésta se usa para el tráfico de drogas y de personas en países en vías de desarrollo, que lo denunciaron ante la cúpula directiva y que recibieron una «respuesta tibia» por su parte.

O que sus algoritmos destinados a disminuir la polarización y el discurso del odio provocaron todo lo contrario, pero Facebook no los cambió porque eran muy efectivos capturando la atención de los usuarios.

Uno de esos informes apuntaba directamente al impacto de los algoritmos en el discurso político europeo. Según la extrabajadora de Facebook, los partidos se quejaron de que la red social les obligara a ser cada vez más y más agresivos en su propaganda para obtener visibilidad en la red social.

Es algo que también provocó la polarización de los contenidos de algunos medios de comunicación. «Cuando tienes un sistema que sabes que puede ser hackeado con ira, es más fácil provocar la ira de la gente. Y los editores dicen: ‘Oh, si hago contenidos más airados, polarizantes y divisivos, consigo más dinero’. Facebook ha creado un sistema de incentivos que está dividiendo a la gente».

En la entrevista en 60 minutos la extrabajadora de Facebook continuó sacando a la luz informes que dejan en evidencia a Facebook. Un nuevo documento dirigido a sus directivos y destapado este domingo en el programa concluye que «el actual conjunto de incentivos financieros que generan nuestros algoritmos no parece estar alineado con nuestra misión como empresa».

No obstante, una parte de su entrevista se centró en explicar cómo la red social perjudica especialmente a las sociedades de mercados secundarios para ella, aquellos cuya conversación no se desarrolla en inglés.

«Es realmente importante recordar que Facebook gana diferentes cantidades de dinero en cada país del mundo», expuso Haugen. «Cada vez que Facebook se expande a una nueva área lingüística, cuesta tanto, si no más, hacer los sistemas de seguridad para ese idioma como para hacer el inglés o el francés. Cada nuevo idioma cuesta más dinero, pero hay progresivamente menos. Y así, por cuestiones económicas, para Facebook no tiene sentido que la plataforma sea segura en muchas de estas partes del mundo».

La consecuencia más grave de la práctica descrita por Haugen, que deja las plataformas con nula o muy poca supervisión en lenguas minoritarias, se dio en Myanmar. Los inspectores de la ONU que investigaron el genocidio contra los rohingya señalaron que Facebook tuvo un papel clave en los llamamientos de la violencia. La empresa terminó reconociendo que no tenía los suficientes moderadores capaces de hablar birmano como para detectar lo que estaba pasando.

El problema se repite en muchos otros lugares del mundo cuando entra en juego la desinformación. Durante la entrevista la filtradora expuso que en muchos países, especialmente donde no existen equipos de periodistas especializados en hacer verificación de contenidos, la «desinformación en Facebook está directamente relacionada con muertes». «Imagina qué ocurre en un pueblo de África en el que se comparte la foto de una masacre, se dice que ha sido en el pueblo de al lado y que es necesario armarse».

Las declaraciones de Haugen coinciden con las de otros excompañeros que han decidido contar lo que fue su día a día en Facebook. Recuerdan especialmente a las de Sophie Zhang, científica de datos que formó parte del equipo encargado de eliminar las redes de bots y otros tipos de actividad maliciosa de la red social. Según su testimonio, esta unidad se veía totalmente sobrepasada por la envergadura y la trascendencia de su trabajo: «He tomado decisiones que afectaban a presidentes nacionales sin ninguna supervisión», alertó. En los documentos que ella filtró destacaba la actuación de su equipo en España, que tardó semanas en bloquear unas 700.000 cuentas falsas que contaminaron la conversación política durante la pandemia.

Las revelaciones de Haugen llegarán aún más lejos. Además de al Wall Street Journal, ella también mandó los documentos a los que tuvo acceso a miembros del Congreso de EEUU, que tiene abierta una comisión de investigación sobre las grandes plataformas a raíz del caso de Cambridge Analytica. La ingeniera comparecerá ante los congresistas esta semana.

Facebook ha enviado un comunicado a los medios en relación a las publicaciones del Journal y la entrevista de Haugen, en el que niega la inacción que denuncia su exempleada. «Cada día nuestros equipos deben hacer un equilibrio entre proteger el derecho de miles de millones de personas a expresarse abiertamente con la necesidad de mantener la plataforma como un espacio seguro y positivo. Seguimos haciendo mejoras significativas para frenar la distribución de desinformación y contenido dañino. Sugerir que promovemos el contenido malo sin hacer nada no es verdad”.

Fuente

Dejar respuesta

Please enter your comment!
Please enter your name here