Home
Tecnologia
Facebook amplifica discurso de ódio pelo lucro, diz ex-funcionária
Tecnologia

Facebook amplifica discurso de ódio pelo lucro, diz ex-funcionária

publisherLogo
Tecmundo
04/10/2021 16h43
icon_WhatsApp
icon_Twitter
icon_facebook
icon_email
https://timnews.com.br/system/images/photos/14712115/original/open-uri20211004-18-d7dxpo?1633366061
icon_WhatsApp
icon_Twitter
icon_facebook
icon_email
PUBLICIDADE

O programa 60 Minutes exibiu, neste domingo (3), uma entrevista com Frances Haugen. Responsável por vazar documentos internos do Facebook para o Wall Street Journal, a ex-gerente de produtos da empresa fez várias denúncias sobre a plataforma.

Em destaque, a ex-funcionária citou que a companhia é tão comprometida com a otimização dos produtos que adotou algoritmos que amplificam o discurso de ódio. Uma medida que visava apenas os lucros, segundo ela.

Frances Haugen apareceu pela primeira vez em público no 60 Minutes.Frances Haugen apareceu pela primeira vez em público no 60 Minutes.

Conforme o antigo perfil no LinkedIn, Haugen trabalhou no Facebook até o início de 2021. Então, ela revela que não acreditava que a empresa estivesse disposta em investir o que realmente é necessário para que a plataforma seja um ambiente saudável.

"Havia conflito interno entre o que era bom para o público e para a companhia. A empresa escolheu várias vezes otimizar os algoritmos para os próprios interesses, como ganhar mais dinheiro", disse a ex-funcionária.

Influência nas sociedades ao redor do mundo

Haugen afirma que o problema teve início com o algoritmo do Facebook lançado em 2018. Analisando as formas de engajamento, a plataforma descobriu que os conteúdos que inspiravam medo e ódio nos usuários eram os que tinham melhor desempenho.

Mark Zuckerberg disse, na época, que as alterações eram "positivas e visavam o bem-estar das pessoas". Entretanto, o resultado passou a ser o aumento da propagação de conteúdos relacionados a discursos de ódio.

Implantado em 2018, o algoritmo não cumpre o que é prometido pelo Facebook.Implantado em 2018, o algoritmo não cumpre o que é prometido pelo Facebook.

"Desinformação, toxicidade e conteúdo violento são excessivamente predominantes entre os novos compartilhamentos", cita um memorando interno sobre as mudanças do algoritmo analisado pelo Wall Street Journal.

Um documento vazado também destaca: "Estimamos que podemos trabalhar de forma menor com 3 a 5% de conteúdos de ódio e cerca de 0,6% de violência e incitamento no Facebook".

Mais contundente, outro documento diz: "Temos evidências que uma variedade de fontes de discurso de ódio, discurso político divisionista e desinformação no Facebook e na família de aplicativos estão afetando sociedades em todo o mundo".

Executivo do Facebook diz que empresa não influencia a polarização política nos EUA.Executivo do Facebook diz que empresa não influencia a polarização política nos EUA.

Resposta do Facebook

Nick Clegg, vice-presidente de assuntos globais do Facebook, esteve no programa Reliable Sources, da CNN americana. Horas antes do 60 Minutes, o executivo defendeu a empresa sobre as recentes alegações publicadas.

"Isso é ridículo. Penso que é um conforto para as pessoas supor que deve haver uma explicação tecnológica para as questões de polarização política nos EUA", disse Clegg a respeito das acusações da influência da plataforma na invasão do Capitólio em janeiro.

Esse texto não reflete, necessariamente, a opinião do TIM NEWS, da TIM ou de suas afiliadas.
icon_WhatsApp
icon_Twitter
icon_facebook
icon_email
PUBLICIDADE
Confira também