Ejecutivo de Facebook acusa a usuarios de difundir información falsa

Facebook no difunde noticias falsas, la gente lo hace, al menos esa es la opinión del gigante tecnológico.

Los «humanos individuales» tienen la culpa de difundir información errónea en Facebook, dijo un alto ejecutivo de la compañía en una nueva entrevista que se emitió el domingo.

Andrew Bosworth, quien se ha hecho un nombre en Silicon Valley como asistente de confianza del CEO de Facebook, Mark Zuckerberg, ha aplastado a los críticos que dicen que la compañía ha amplificado la información errónea sobre el COVID-19 y otros temas.

«Los seres humanos son los que eligen creer o no creer algo. Son los que eligen compartir o no compartir algo», dijo Bosworth en una entrevista publicada el domingo. con «Axios en HBO».

Bosworth apareció en la entrevista para equiparar la regulación de la información errónea en la plataforma con la eliminación de contenido que es simplemente desfavorable a los ojos de algunas personas.

“No me siento nada cómodo diciendo que no tienen voz porque no me gusta lo que dijeron”, le dijo a Axios.

Bosworth se unió a Facebook en 2006 y trabajó en una letanía de iniciativas clave, incluido el aumento de los ingresos publicitarios. El próximo año, será ascendido a director de tecnología de Meta, la empresa matriz de Facebook.

Cuando Axios lo presionó en la entrevista sobre el papel de la compañía en la difusión de al menos alguna información errónea que puede haber contribuido a la vacilación de la vacuna o paralizado la respuesta global a la pandemia, Bosworth volvió a culpar a las personas que creía que querían ver información como esta.

Política de desinformación de Facebook.
Andrew Bosworth ha equiparado la regulación de la información errónea con la eliminación de contenido que simplemente es desfavorable para algunas personas.
Andrew Caballero-Reynolds/AFP vía Getty Images

“Es su elección. Se les permite hacerlo. Tienes un problema con esta gente. No tienes ningún problema con Facebook. No puedes culparme de eso’, dijo.

“La gente quiere esta información”, agregó.

«No creo que la respuesta sea ‘Le negaré a estas personas la información que buscan y les impondré mi voluntad'».

«En algún momento, la responsabilidad recae, y debería recaer en cualquier democracia significativa, en el individuo».

Bosworth luego preguntó si Facebook podría definir la desinformación.

«Nuestra capacidad para saber qué es la desinformación está en duda y creo que eso es razonable, por lo que me incomoda mucho la idea de que tenemos suficiente corrección fundamental, incluso en nuestros centros de estudio más científicos, para ejercer ese tipo de poder sobre un ciudadano, otro humano, y sobre lo que quieren decir y a quién quieren escuchar”, dijo.

Facebook.
En mayo, Facebook revocó la decisión de marcar las publicaciones que afirmaban que el COVID-19 fue creado por el hombre.
Richard Drew/AP

En particular, Facebook intervino en lo que consideraba información errónea al principio de la pandemia. En febrero, Facebook prohibió las publicaciones que afirmaban que el COVID-19 fue creado por el hombre o creado por el hombre.

Los verificadores de hechos del sitio enviaron una notificación de «información falsa» sobre las acciones de un artículo de opinión del 23 de febrero de Steven Mosher, quien dijo que EE. UU. no podía confiar en la historia de China sobre los orígenes de COVID-19 y argumentó que el virus podría haber escapó de un laboratorio en Wuhan.

Pero en mayo, la compañía revocó esa decisión y dijo que ya no eliminaría las publicaciones en su plataforma que afirmaban que el COVID-19 fue creado por el hombre, luego de que el presidente Biden ordenara a las agencias de inteligencia de EE. UU. que investigaran si el virus provenía de un laboratorio chino.

Andrés Bosworth.
Andrew Bosworth se unió a Facebook en 2006 y se espera que asuma el cargo de director de tecnología de Meta el próximo año.
Axios en HBO

Bosworth, que a menudo comparte sus puntos de vista sobre las redes sociales y la tecnología en general en su blog, sugirió anteriormente que Facebook podría causar daños, pero que lo bueno supera a lo malo.

Dentro una nota filtrada en 2016escribió sobre la creencia de algunos empleados de Facebook de que la plataforma es «buena de facto», aunque podría tener malos resultados, como un «ataque terrorista coordinado contra nuestras herramientas».

Bosworth y Zuckerberg luego dieron marcha atrás y dijeron que el memorándum estaba destinado a criticar a los empleados de Facebook que creían en él.

.

———————————————————————————————————————–
Esperamos que te haya gustado el contenido de nuestro Blog El Diario del Mundo, sí fue así, por favor compártelo nos ayudarías mucho para seguir publicando más contenido.

Entradas relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada.