O estudo explica bem por que a moderação de conteúdo no Facebook falha tanto em 06.06.2020

O Facebook precisa prestar mais atenção à sua estratégia de moderação de conteúdo e parar de terceirizar o serviço. Esta é a conclusão de um relatório da Universidade de Nova York (NYU), lançado neste fim de semana.

Segundo o estudo, o setor deve funcionar dentro da empresa, receber os recursos necessários e ter equipes nos países que passam por situações sócio-políticas sensíveis. Somente então é possível suprimir informações erradas, notícias falsas e outros conteúdos prejudiciais que circulam na plataforma.

Algumas das ações propostas no relatório são: mais moderadores e melhores condições de trabalho – incluindo assistência física e mental – para moderadores, que lidam com informações traumáticas e perturbadoras diariamente.

Moderação insuficiente

O estudo estima que os usuários e o sistema de inteligência artificial marquem mais de 3 milhões de mensagens suspeitas por dia. A empresa reporta uma taxa de falha de moderação de 10%, resultando em 300.000 conteúdo com moderação diária.

“Esses números parecem mais substanciais, mas, analisando o escopo do que é distribuído diariamente em sites e aplicativos, são extremamente inadequados”, disse o autor do estudo, Paul Barrett.

O Facebook fez parceria com 60 organizações de notícias para realizar uma “verificação de fatos”, mas as demandas feitas a esses grupos também estão muito além da verificação.

Para enfatizar o papel central do moderador, Barrett propõe o seguinte cenário:

Imagine como seriam as redes sociais sem que ninguém removesse as postagens mais difíceis. O Facebook, Twitter e YouTube (do Google) seriam inundados não apenas com spam, mas também com conteúdo de abuso, neo-nazismo, terrorismo e pedofilia. Diante desse caos, a maioria dos usuários deixaria as plataformas, seguidas pelos anunciantes

Apesar da importância, os moderadores são marginalizados, afirma o relatório. Como estão fisicamente distantes, o Facebook geralmente não reconhece a seriedade do conteúdo visualizado.

Exemplos disso Myanmar, onde forças pró-governo usaram uma plataforma para espalhar propaganda genocida; e as eleições de 2016 nos EUA, quando grupos russos espalham informações erradas e odeiam mensagens para influenciar o público.

Mas por que isso está acontecendo? Basicamente, gastar menos. Os moderadores de oficiais que trabalham em países subdesenvolvidos custam menos que os funcionários em período integral no Vale do Silício, com escritório físico e comodidades. Barrett, que entrevistou vários ex-moderadores durante o estudo, acredita que as pessoas são fundamentais para o sucesso da moderação.

Soluções

Ele sugere oito etapas para resolver o problema:

  • Trazer o setor de moderação para a empresa, com melhor remuneração
  • Dobrar o número de moderadores de conteúdo
  • Designar um CEO qualificado para supervisionar o serviço
  • Invista mais em moderação em “países em risco”, principalmente na Ásia e na África, com equipes de língua local
  • Prestar assistência médica no local de trabalho
  • Patrocinar pesquisas acadêmicas sobre riscos à saúde com moderação de conteúdo
  • Apoiar os regulamentos governamentais sobre conteúdo nocivo
  • Expanda o volume de verificação de fatos para combater desinformação

Temporariamente, em resposta a notícias falsas e golpes relacionados ao coronavírus, o CEO Mark Zuckerberg transferiu para o Facebook a moderação do conteúdo de algumas categorias sensíveis.

Durante o período do escritório em casa, quando era preciso confiar mais na inteligência artificial, a empresa também reconheceu as limitações de algoritmos que sinalizam conteúdo ofensivo.

Um longo caminho

A reputação do Facebook se deteriorou nos últimos anos. Essa recomendação chega em um momento delicado, depois que os tweets do presidente dos EUA, Donald Trump, que incitam a violência policial contra manifestantes pela morte de George Floyd foram rotulados como potencialmente perigosos.

Problemas como esses existem na empresa. Barrett disse que a moderação é fundamental para manter o Facebook, mas mudou para um papel de apoio, com prestadores de serviços não pagos em mais de 20 locais.

Mas todas as principais plataformas de mídia social sofrem do mesmo mal. O Facebook possui cerca de 15.000 moderadores de conteúdo, a maioria externos; YouTube / Google tem 10.000; e o Twitter tem 1.500; De acordo com o relatório.

Leave a Comment

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Scroll to Top