Tecnología

Cuatro revelaciones de los documentos de Facebook

Cuatro revelaciones de los documentos de Facebook

Aurich Lawson | imágenes falsas

Facebook está luchando contra su crisis más grave desde el escándalo de Cambridge Analytica después de que un denunciante que acusaba a la compañía de colocar «ganancias sobre seguridad» arrojara luz sobre su funcionamiento interno a través de miles de páginas de memorandos filtrados.

Los documentos fueron revelados a los reguladores estadounidenses y proporcionados al Congreso en forma redactada por el asesor legal de Frances Haugen. Un consorcio de organizaciones de noticias, incluido el Financial Times, ha obtenido las versiones redactadas recibidas por el Congreso.

A principios de este mes, Haugen testificó en el Congreso que la empresa de redes sociales no hace lo suficiente para garantizar la seguridad de sus 2.900 millones de usuarios, minimiza el daño que puede causar a la sociedad y ha engañado repetidamente a los inversores y al público. El Wall Street Journal también publicó una serie de artículos llamados Archivos de Facebook.

Aquí hay cuatro revelaciones sorprendentes que contienen los documentos:

Facebook tiene un gran problema de idioma

A menudo se acusa a Facebook de no moderar el discurso de odio en sus sitios en inglés, pero el problema es mucho peor en países que hablan otros idiomas, incluso después de que prometió invertir más después de ser culpado por su papel en facilitar el genocidio en Myanmar en 2017. .

Un documento de 2021 advirtió sobre su muy bajo número de moderadores de contenido en dialectos árabes hablados en Arabia Saudita, Yemen y Libia. Otro estudio de Afganistán, donde Facebook tiene 5 millones de usuarios, encontró que incluso las páginas que explicaban cómo denunciar el discurso de odio estaban traducidas incorrectamente.

Facebook asignó solo el 13 por ciento de su presupuesto para desarrollar algoritmos de detección de información errónea en el mundo fuera de los EE. UU.
Agrandar / Facebook asignó solo el 13 % de su presupuesto para desarrollar algoritmos de detección de información errónea en el mundo fuera de los EE. UU.

Washington Post | imágenes falsas

Las fallas ocurrieron a pesar de que la propia investigación de Facebook marcó a algunos de los países como de «alto riesgo» debido a su frágil panorama político y la frecuencia de los discursos de odio.

Según un documento, la compañía asignó el 87 % de su presupuesto para desarrollar sus algoritmos de detección de información errónea en los EE. UU. En 2020, frente al 13 % del resto del mundo.

Haugen dijo que Facebook debería ser transparente sobre los recursos que tiene por país e idioma.

Facebook a menudo no comprende cómo funcionan sus algoritmos

Varios documentos muestran a Facebook perplejo por sus propios algoritmos.

Un memorando de septiembre de 2019 descubrió que los hombres estaban ocupando un 64 % más de puestos políticos que las mujeres en «casi todos los países», y el problema era particularmente grande en los países africanos y asiáticos.

Si bien era más probable que los hombres siguieran cuentas que producían contenido político, el memorando decía que los algoritmos de clasificación de feeds de Facebook también habían jugado un papel importante.

Facebook descubrió que los hombres recibían un 64 por ciento más de publicaciones políticas que las mujeres en
Agrandar / Facebook descubrió que los hombres recibían un 64 % más de publicaciones políticas que las mujeres en «casi todos los países».

Ben Stansall | imágenes falsas

Un memorando de junio de 2020 encontró que estaba «virtualmente garantizado» que los «principales sistemas de Facebook muestran sesgos sistémicos basados ​​en la raza del usuario afectado».

El autor sugirió que quizás la clasificación de las fuentes de noticias está más influenciada por las personas que comparten con frecuencia que por las que comparten y se involucran con menos frecuencia, lo que puede correlacionarse con la raza. Eso da como resultado que se priorice el contenido de ciertas razas sobre otras.

Leave a Comment

You may also like