OTRAS NOTICIAS

Cuatro grandes mentiras que Facebook te dijo

Los testimonios y documentos filtrados por la ex empleada de Facebook Frances Haugen son el verdadero problema de la red social. Ex científica de datos de la compañía, Haugen mostró a los medios y al Senado de los Estados Unidos los entresijos de las políticas de Facebook y acusa a la red social de favorecer las ganancias sobre la calidad.

Ella mostró evidencia de que Facebook sabía que sus sistemas ayudaron a explotar la desinformación y el discurso de odio, así como a afectar la salud mental de los jóvenes, pero decidió no hacer nada para cambiar eso. Son acusaciones que veníamos haciendo desde hace años y que finalmente traspasaron la barrera de los acuerdos de confidencialidad y se hicieron de conocimiento público.

De la serie de escándalos que involucran a Facebook desde el caso de Cambridge Analytica, este es sin duda el peor. Esto se debe a que, si bien ya estaba claro que el modelo de extracción masiva de datos con fines publicitarios tuvo nefastas consecuencias en el ámbito público y privado, los documentos que publicó Hagen muestran que la empresa estaba absolutamente consciente de ello. Y desmantelan, punto por punto, los mensajes robóticos utilizados por el equipo de relaciones públicas para menospreciar a cualquiera que se atreva a denunciar estos abusos corporativos.

Facebook mintió al público y a los inversores sobre sus esfuerzos para combatir el discurso de odio, sobre el alcance de sus esfuerzos internacionales para combatir el terrorismo, sobre el propósito de los cambios en las noticias, sobre el impacto real de Instagram en la salud mental de los jóvenes.

La red social, que comenzó como una herramienta misógina para clasificar a las mujeres en la universidad, se ha expandido sin ningún control, adquirió todas las empresas que estuvieron cerca de perturbar sus negocios y llegó a países con culturas absolutamente diferentes sin ningún tipo de preparación ni conocimiento profundo sobre sus impactos – sólo el pensamiento colonizador de “conectemos el mundo”, a la manera de ser de Silicon Valley. ¿El resultado? Genocidios, ascenso y empoderamiento de los extremistas, exacerbación de la polarización política, negación de la calamidad en medio de la pandemia y todo lo demás que conoces bien.

Enumeré las cuatro grandes mentiras que dijo Facebook, reveladas por la ex empleada.  Fueron publicados originalmente en una serie de informes del Wall Street Journal y luego detallados en entrevistas y una audiencia en el Senado de Haugen. También fueron desglosados ​​en documentos elaborados por Whistleblower Aid, la asociación que defiende a la científica, y enviados a la Securities and Exchange Commission, el regulador del mercado de valores de EE. UU.

1. Facebook no actúa correctamente contra el discurso de odio. De hecho, prácticamente no hace nada.

El año pasado, publiqué una noticia que mostraba que la cantidad de informes de incitación al odio, incluido el neonazismo, estaba creciendo en todas las redes sociales. Peor aún: en Facebook específicamente, la cantidad de publicaciones eliminadas estaba disminuyendo. La red social no se pronunció sobre los datos, recopilados por la ONG Safernet. Simplemente dijo que “nuestra tasa de detección proactiva de discursos de odio en Facebook e Instagram aumentó al 95% y 84,2% a nivel mundial, respectivamente, al comparar el primer y segundo trimestre de 2020. La cantidad de contenido de discursos de odio que eliminamos a nivel mundial ha aumentado de 9,6 millones a 22,5 millones en Facebook y de 808,9 millones a 3,3 millones en Instagram “.

Fue un acto de malabarismo para ocultar una mentira. Según documentos filtrados , Facebook elimina solo del 3% al 5% del contenido de odio y el 0,6% del contenido violento. “Solo tomamos medidas contra aproximadamente el 2% del contenido de odio en la plataforma. Estimaciones recientes muestran que, a menos que haya un cambio significativo en la estrategia, será muy difícil mejorar en más de un 10-20% en el mediano plazo ”, dice un extracto de un informe interno. “Estamos borrando menos del 5% de todos los discursos de odio en Facebook. De hecho, esta es una estimación optimista ”, dice otro pasaje.

Sabían que lo que causaba esto era el corazón del negocio: el modelo de entrega de contenido que favorecía la interacción para captar la atención, capturar más y más datos y vender anuncios dirigidos. “También tenemos pruebas convincentes de que la mecánica de nuestro producto central, como la viralización, la recomendación y la optimización del compromiso, son fundamentales para que este tipo de discurso prospere en la plataforma”. Facebook no ha hecho nada para cambiar eso.

Al contrario: en sus discursos, Zuckerberg garantizó que más del 94% de los contenidos de odio fueron eliminados y se jactó de tener tecnologías capaces de detectar y reprimir este tipo de discursos sin intervención humana. Bala. En Afganistán, por ejemplo, solo el 0,2% del contenido de odio fue detectado por la tecnología.

Además, los documentos muestran la indulgencia de una red social con los propagadores de discursos de odio: el 99% de los usuarios que difundieron estas publicaciones mantuvieron sus cuentas intactas en la plataforma. Incluso reincidentes.

2. Facebook trató de engañarte diciendo que los cambios en el feed tenían como objetivo mostrar más “contenido significativo”. No eran.

Los documentos internos revelados por Haugen muestran que Facebook sabía muy bien lo que los investigadores externos estaban cansados ​​de señalar : las ofensas y la desinformación son los contenidos con mayor capacidad de viralización. La viralización significa que más personas interactúan. Las interacciones significan más tiempo y se entregan más datos. La atención y los datos significan ganancias.

En 2018, Facebook promovió un cambio importante en el algoritmo que selecciona contenido para los usuarios. Comenzó a privilegiar el contenido de amigos y familiares, ese era el discurso oficial. “Creamos Facebook para ayudar a las personas a mantenerse conectadas y nos acercaremos a las personas que nos importan. Por eso siempre ponemos a los amigos y la familia en el centro de la experiencia ”, dijo Zuckerberg en la publicación que justificaba el cambio.

En la práctica, la red social se dio cuenta de que este contenido “significativo” generaba más participación. Por lo tanto, se privilegió el contenido más atractivo y se mostró a más personas. Como la tecnología es supuestamente neutral, solo aprende lo que atrae a las personas, no evalúa el mérito de la publicación, el contenido que generó enojo o indignación terminó siendo mejor clasificado.

Facebook lo sabía muy bien. Los documentos muestran que la investigación interna ha revelado que es más probable que el delito y la desinformación se vuelvan virales. Los estudios de retroalimentación y experiencia del usuario también dejaron en claro que el cambio en el algoritmo hizo que los usuarios y los actores políticos publicaran contenido más divisivo y sensacionalista para lograr una mayor interacción y distribución.

Los equipos internos propusieron cambiar el algoritmo, sin priorizar el intercambio, por ejemplo, de publicaciones donde el original no era un contacto o amigo de la persona que lo publicó. Los estudios han revelado que este cambio por sí solo tendría un impacto considerable en la propagación del odio y la desinformación. Pero Mark Zuckerberg lo negó. Los empleados se quejaron de que, a pesar de la buena voluntad del equipo y la investigación interna, el directorio de la empresa no estaba interesado en los cambios. “La toma de decisiones en Facebook está habitualmente influenciada por consideraciones políticas”, dijo un funcionario, según el documento.

3. Facebook mintió acerca de hacer del mundo un lugar más conectado.

Facebook siempre se ha vendido a sí mismo como global con sus 2.800 millones de usuarios en todo el mundo. Esto fue importante institucionalmente y también para los inversores. Por eso la crisis de Myanmar supuso un duro golpe para la empresa. En 2010, Facebook inició un ambicioso plan para “conectar” – así, entre comillas, y entenderás por qué – al país asiático, cuya población tenía muy poco acceso a Internet. La empresa empezó a ofrecer acceso a sus aplicaciones con acuerdos con empresas telefónicas, en los que no se cobraban los datos de la franquicia. Entonces, en Myanmar, el acceso a Internet cuesta dinero, pero Facebook es gratis. La empresa se convirtió en un elemento central de las comunicaciones.

En 2014, en medio de una crisis política entre una etnia musulmana y la mayoría budista, un monje publicó un informe falso de que una niña había sido violada por musulmanes.

El contenido se volvió viral rápidamente, y lo que siguió fue el violento linchamiento y asesinato de los acusados. En la crisis política que azotó al país, murieron 600.000 personas, y Facebook fue cómplice, señaló la ONU . Posteriormente, la propia red social asumió la responsabilidad del caso.

Ante la atrocidad, se suponía que la red social redoblaría su atención con países en una situación política delicada, ¿no? Incorrecto. Los documentos internos revelan que Facebook incluso se negó a detallar qué estaba haciendo exactamente en Myanmar. No dijo cuántos moderadores de contenido, esencial para evaluar si una publicación viola las reglas o no, habla birmano, el idioma del país. Cuando se le preguntó, simplemente soltó la respuesta estándar de que estaba trabajando con “80 organizaciones de verificación de datos en todo el mundo” como si eso fuera a resolver un problema.

Hace dos meses, otro ex empleado de Facebook mostró que la red social sabía que existían pruebas sólidas de manipulación política a través de la red social en varios países. India, México, Afganistán, Corea del Sur y Honduras realizaron acciones concertadas para manipular el debate político en la red social, pero Facebook no hizo nada. Al contrario: despidió al empleado que señaló la inacción de la empresa.

Ahora, los documentos revelados por Haugen dejan más claro por qué: aunque dice que aboga por un mundo más cercano y conectado, Facebook prioriza algunos países y gasta recursos de manera extremadamente desigual. Estados Unidos, Brasil e India son las prioridades cero (la gran cantidad de usuarios ayuda a explicar). Aquí, había al menos sus propias políticas y fondos para actuar durante el período electoral. Para otros países, nada. Ni siquiera hay suficientes moderadores que hablen árabe, hindi o bengalí.

4. Facebook mintió para ser inofensivo para los niños y los jóvenes.

En el documental “El dilema de la red”, los ex empleados cuentan que las redes sociales se desarrollan con un propósito: llamar la atención. Para hacer esto, utilizan características sofisticadas de experiencia y diseño del usuario, todas probadas para garantizar que pasamos nuestro precioso tiempo desplazándonos sin cesar por los feeds, enfureciendo o despertando el deseo de consumir. Existen varios estudios que muestran que el tiempo dedicado a las plataformas digitales ha aumentado , especialmente entre los jóvenes , lo que está motivado, en parte, por las ~ mejoras ~ de la experiencia de usuario que proponen las grandes plataformas. Solo en Instagram, los jóvenes brasileños gastan alrededor de 1h30 al día. Todos los días.

Pero Facebook siempre ha refutado esa lectura. Cuando se le preguntó en el Congreso sobre un posible impacto de la adicción a la tecnología, Zuckerberg dijo que su compañía estudia muchos de los efectos de sus tecnologías en el bienestar de las personas. “Como cualquier herramienta, tiene buenos y malos usos”, bromeó.

“Lo que encontramos, en general, fue que si estás usando las redes sociales para construir relaciones, entonces estás compartiendo contenido con amigos, estás interactuando. Eso está asociado con todas las medidas de bienestar en las que uno puede pensar intuitivamente ” , dijo .

Sin embargo, Zuckerberg ocultó que el propio Facebook sabía lo malo que era Instagram para la salud mental. Los documentos filtrados muestran que la investigación interna reveló que Instagram empeoró los pensamientos de suicidio y autolesión en el 13,5% de las chicas jóvenes. Para el 17%, la red social afectó negativamente a los trastornos alimentarios. Y, para uno de cada tres, su autoestima empeoró.

Salidas al problema

En su testimonio, Haugen habló poco del modelo de negocio de la empresa: extraer datos para ofrecer publicidad dirigida y altamente persuasiva. Las soluciones que propuso se someten a regulación y cambio de algoritmos, para que favorezcan los contenidos relevantes y no los más susceptibles de engagement.

Para muchos, sin embargo, es necesario discutir con más profundidad la naturaleza de las grandes empresas tecnológicas, como Google y Facebook. La minería de datos y la predicción del comportamiento tienen efectos devastadores cuando se llevan a cabo en plataformas que son las principales fuentes de interacción social e información de las personas. Es una realidad especialmente dramática donde la red social se confunde con la propia Internet, el caso de Brasil.

Tomado de The intercept

 

Foto del avatar
Redacción Cubaperiodistas
Sitio de la Unión de Periodistas de Cuba

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *