Notícias falsas PL não ataca a raiz do problema e tem efeitos colaterais ruins

Na última sexta-feira, 29 de maio, um debate sobre o pe. 2.630 PL 2020, de autoria do senador Alessandro Vieira (Cidadania-SE), já batizado pela Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet ou, simplesmente, PL via Fake News, ganhou serviços de mídia social e de mensagens desde a disseminação da campanha de mobilização lançada pela por apoiadores da idéia. Essa campanha incentivou os usuários a votar “sim” em um debate público incentivado pelo Portal de Cidadania Eletrônica do Senado, com o que já está marcado, Os opositores lançaram um grupo de trabalho intensivo de conscientização e informações para descobrir por que é muito importante impedir que a votação vote nesta terça-feira, conforme planejado.

Em uma decisão rápida, muitos conselheiros do Comitê Gestor da Internet, preocupados com as conseqüências que o processamento rápido de PL poderia trazer liberdades on-line, mesmo por personalização, enviaram cartas ao Senado em busca de remoção da agenda desta semana e listaram os motivos em um esclarecimento publicado em seu site, Entre eles está a importância de aprofundar as discussões sobre gerenciamento e moderação de conteúdo por parte dos provedores de serviços da Internet; complexidades conceituais e técnicas dos projetos de lei; e a importância e as sérias conseqüências que o sujeito do projeto possa ter sobre direitos fundamentais, como a liberdade de expressão e a proibição de censura.

A sensação geral é de que o projeto foi realizado às pressas e com mau tempo. E eles votarão remotamente, com todo o ônus que isso traz.

Quer entender do que se trata? Então leia até o fim tudo o que aprendi nas duas vidas que assisti, uma na sexta-feira à noite, na presença do próprio senador Alessandro Vieira, que foi fortemente acusado por seus próprios eleitores, e outro com pesquisadores da Intervoz, na tarde de sábado.

Quem é o autor?

Alessandro Vieira é o autor da CPI da Toga. O autor do pedido de impedimento solicita, no Senado, o Presidente do Supremo Tribunal Federal (STF), o ministro Dias Toffoli e o ministro Alexandre de Moraes, uma investigação aberta para investigar notícias falsas que ele considerava absolutamente ilegais.

“A investigação de possíveis organizações que trabalham com notícias falsas é importante, tem que acontecer, mas dentro dos critérios legais. Hoje no Brasil, a única ferramenta para pesquisar esse tipo de notícia falsa é a CPMI com notícias falsas. Tudo funciona bem lá”.

Vieira também é ex-delegado da luta contra o cibercrime.

Qual é o objetivo do projeto?

Em suas próprias palavras, a luta contra contas fraudulentas e redes de distribuição de conteúdo automatizadas não identificadas.

“Não queremos que haja contas falsas, redes de robôs não identificados, para evitar o uso indevido de ferramentas. Agora, um cidadão que deseja ter uma opinião, sua opinião será preservada. Incluímos uma emenda que esclareceria completamente que, de acordo com essa lei, não deveria haver declínio”. Ainda assim, a rejeição ainda pode ocorrer por ordem judicial, como já previsto por Marco Civila, pela lei de Carolina Dieckmann, e também com base nas regras internas da plataforma ”, comentou.

Como o PL propõe fazer isso?

Então os problemas começam a aparecer. Embora esse PL seja baseado em iniciativas diferentes daquelas que criminalizaram as notícias falsas em 2018, propõe até 8 anos de prisão para quem compartilha notícias falsas e tem como objetivo desmantelar as redes de disseminação de informações e garantir transparência para a operação da plataforma. que cria interferência direta na plataforma e desencadeia um cenário de censura em massa. Exatamente o oposto de intenções.

Por quê? “Como a plataforma tem a obrigação de monitorar todo o conteúdo que é processado nelas, identificar desinformação e contas que as espalham, incluindo contas automatizadas, para aboli-las. E com essas contas vem todo o conteúdo”, explica Bia Barbosa, da Intervoz.

Em sua defesa, o senador confirma que a intenção do autor era criar camadas de proteção para os usuários e reduzir o poder da plataforma, por exemplo, usando casos recentes de remoção de conteúdo publicados pelos presidentes Trump e Bolsonaro.

“O presidente Bolsonaro teve posições identificadas como desinformação. Uma foi derrubada, a outra foi marcada como tal. Se essa lei não estivesse em vigor, ele teria o direito de defender sua posição, apresentar informações complementares, em um procedimento transparente. , se a plataforma reconhecer o erro, o presidente poderá substituir seu cargo e corrigi-lo.Como? Todos os que receberam essas informações com o rótulo de informações erradas receberão o mesmo post afirmando que o rótulo foi um erro.Para tornar isso mais claro, apresentaremos aos autores a emenda é um parágrafo que tornará absolutamente textual que esta lei não justifique a remoção de conteúdo de ninguém. Porque esse não é o objetivo “, explicou.

“O que as plataformas estão fazendo hoje é remover o conteúdo com base em sua data de validade, aquela pequena impressão que ninguém lê. Diz lá que eles estão autorizados a remover muitas coisas. E podem ser removidos quando a justiça o exigir. Não criamos nenhuma situação de remoção obrigatória. Absolutamente Mas estamos fazendo algo que parece muito racional e importante: dá transparência a esse processo e responsabiliza as plataformas “, afirmou.

“O PL exige plataformas para manter a identificação correta. Quero que o usuário final saiba como conversar com a máquina. Consumir conteúdo distribuído automaticamente, a um custo muito alto. Trazemos transparência O espírito da lei é garantir o direito de uma pessoa de ter sua opinião, legitimamente opinião e, se for contrário à opinião de outra pessoa, ser responsável quando julgado oportunamente pelo judiciário “.

Mas, de acordo com os críticos do PL, isso não está claro no texto. E, na prática, a lei apóia a prática das empresas.

“Ele não está lutando contra monopólios. Ele não está lutando contra o autoritarismo. Ele está simplesmente fornecendo apoio legal às plataformas para fazer exatamente o que estão fazendo sem serem responsabilizadas, porque elas sempre podem alegar ter cumprido o que foi definido no novo processo, elas deram a elas. o direito de contradizer isso também, e ainda decidiu manter o veto ”, argumentou o advogado e advogado de Sergipe, José Paulo Leão Veloso, morando com o senador.

A Intervozes também vê os mecanismos propostos como um incentivo para as plataformas, em dúvida, escaparem das sanções previstas, descartarem conteúdo e aguardarem recursos. Ao forçar as plataformas a moderar o conteúdo, impondo sanções a elas, elas não apenas rejeitarão o conteúdo que era sua condição de uso, como, em princípio, desistirão.

Segundo a opinião coletiva, a defesa deve ser anterior, não a posteriori. Não se trata de recorrer a uma conta ou a um conteúdo descartado. O direito de competir deve ocorrer antes da derrubada. O PL deve melhorar os artigos do capítulo sobre transparência que tratam dos mecanismos de queixas e surtos. Os oferecidos pelas plataformas hoje são difíceis de usar, pouco transparentes e lentos.

A propósito, as sanções variam de advertências, com indicação do prazo para a adoção de medidas corretivas; multa de trânsito; suspensão temporária de atividades; até proíbe atividades no país.

E como o projeto define o que é desinformação?

Em muitos casos, a definição de notícias falsas não é objetiva. Requer interpretação. E onde quer que as plataformas fossem forçadas a identificar esse conteúdo, elas recorriam à automação de parte do processo. O próprio senador admite isso.

“Hoje, em regra, esse conteúdo é analisado por máquinas. O programador cria seus próprios critérios e filtros, que são aplicados automaticamente. E quando você tenta uma revisão, outra máquina faz isso usando os mesmos critérios. É claro que essa segunda análise deve ser feita por uma pessoa natural. subjetividade. Existe um componente subjetivo. E não há lei no mundo que possa substituí-lo “, afirmou.

“Não temos controle sobre isso. E não há transparência. Está tudo nas mãos da plataforma. O Zuckerberg pode fazê-lo em um processo regulamentado e transparente, certo? Onde o usuário tem o direito de defender, apresentar seus dados e finalmente substituir o conteúdo e corrigir o erro”, disse Zuckerberg. com a disseminação massiva de avisos sobre a primeira classificação como desinformação, estava errado. Portanto, não vejo esse projeto como um retrocesso. Considero um passo adiante “, acrescenta.” Uma empresa privada com sede no exterior decide por seus próprios critérios o que é ou não verdade, o que pode e o que as pessoas não podem acessar livremente ”, acrescentou.

Os critérios propostos pelo PL para identificar notícias falsas são: conteúdo que é, em parte ou no todo, inequivocamente falso, enganoso, fora de contexto, manipulado, falsificado e que pode causar danos individuais ou coletivos.

Há muitas coisas lá, não há? Pense com cuidado. Este texto, por exemplo, você lê, inclui declarações ao vivo por mais de 2 horas. Em teoria, eles estão fora do contexto em que disseram, apesar da minha preocupação em preservar o contexto do tópico. Compreendo? É um termo amplo e vago.

Definir desinformação é um dos grandes desafios. Nenhum país democrático o definiu legalmente. A lei alemã conhecida lida com discursos de ódio e conteúdo ilegal descrito nas leis de outros países, não com informações erradas.

“O contexto, sobre o que é desinformação, é baseado no que há de mais moderno no mundo. No código de conduta da União Europeia. Nos seus próprios manuais de plataforma …”, defendeu o senador. “Mas aceitamos contribuições para ajustar as definições”.

Bem, a contribuição da Intervoz, por exemplo, segue duas premissas para limitar e objetivar o conceito: ser clara e inequivocamente falsa ou falsificada (manipulada); e (não ou) não deseja criar danos. A definição deve ser cumulativa. E a questão da intencionalidade pode ser avaliada a partir de uma combinação de dois fatores: recorrência de erro e manipulação de ferramentas de aumento de conteúdo não relatadas.

Isso mostra a magnitude da complexidade da análise de conteúdo para marcá-la com informações erradas. E essa é apenas uma das razões pelas quais precisamos de uma discussão mais profunda e ampla, é impossível fazer isso em uma corrida de rituais encurtados e distantes devido à pandemia.

Havia um pacto no Congresso de que os votos a serem realizados na época se aplicariam apenas ao Covid-19. E, apesar de todas as informações erradas sobre a doença, a lei, mesmo que aprovada com pressa, não será útil nesses casos. Na prática, com toda a pressa, não entraria em vigor até outubro. Então, o verdadeiro motivo são as eleições deste ano. Algo que poderia ser resolvido pelo Supremo Tribunal Eleitoral. Portanto, é possível ter mais tempo para discussões.

Como o PL sugere a verificação de conteúdo?

Há outra questão que precisa de mais análises. A definição de examinadores independentes é bastante vaga.

Os eleitores do senador estão preocupados em saber como atingir expressões tão vagas. E que tipo de pessoas ou equipe será capaz de avaliar as circunstâncias da desinformação. Existe uma qualificação especial? Algum obstáculo (por exemplo, pertencer a um partido político)? Identificando as fontes de financiamento para essas empresas?

Na verdade, não há qualificação no PL para um agente de verificação. E o senador chegou ao ponto de confirmar ao vivo que pode estudar o regulamento para a atividade de verificação.

“Ao estabelecer uma lei sobre como as iniciativas de verificação devem fazer seu trabalho e usar seus recursos, isso viola os princípios fundamentais da liberdade de imprensa e, em última análise, impede o escrutínio público das autoridades que usam seus pontos de vista para espalhar desinformação”. afirma Aos Fatos, no editorial do PL.

Quais seriam as obrigações legais da plataforma?

Como já vimos, o PL obriga as plataformas a fornecer relatórios transparentes; requer etiquetar bots (programas de computador que simulam repetidamente ações humanas de maneira robótica padrão); e uma correção importante feita por doadores independentes.

“Pediremos uma série de dados no relatório. Quem negou? Quantas renúncias? Quais critérios são usados ​​para rejeitar conteúdo? Somente dessa maneira capacitamos os cidadãos. Não há nada mais liberal do que isso: capacitar cidadãos. Consome um serviço que gera enormes lucros para as empresas sem ter poder no processo. Então, estamos mudando esse cenário. Traz uma mudança radical. Tem um impacto muito grande na realidade “, afirmou o senador.

Como ocorrerá a marcação de bot?

A rotulagem de garrafas, que envolve o reconhecimento de disseminadores artificiais, também tem problemas.

Segundo a Intervoz, a definição de “contas automatizadas”, entendida como “que gerencia qualquer programa de computador, tecnologia ou tecnologias usadas para simular, substituir ou facilitar atividades humanas na distribuição de conteúdo em aplicativos da Internet”, seria mais apropriada do que o conceito colocado em PL. Isso facilitaria a identificação de contas que foram realmente criadas para produzir e ampliar informações erradas.

De fato, segundo os especialistas, há quatro definições que precisam ser revisadas.

Conta não convincente: uma conta criada ou usada com a finalidade de divulgar informações erradas ou assumir a identidade de terceiros para enganar o público;

Disseminador artificial: qualquer programa ou tecnologia de computador usado para simular, substituir ou facilitar atividades humanas na disseminação de conteúdo em aplicativos da Internet;

Rede de divulgação artificial: um conjunto de disseminadores artificiais cuja atividade é coordenada e articulada por uma pessoa ou grupo de pessoas, uma conta para indivíduos, um governo ou uma empresa com o objetivo de influenciar artificialmente a distribuição de conteúdo com o objetivo de obter lucro financeiro e / ou político.

Serviço de mensagens privadas: provedores de aplicativos que fornecem serviços de mensagens instantâneas por meio de comunicação interpessoal, acessíveis a partir de terminais de processamento móvel de alta capacidade ou de outros equipamentos digitais conectados a uma rede, destinados principalmente à comunicação privada entre seus usuários, incluindo os criptografados.

A impressão de muitos cientistas é que, em vez de olhar para o todo, foram feitas conceituações para tentar explicar os problemas que precisam ser mitigados. A redação mistura o que pode ser uma conta automatizada, na qual os robôs também publicam, com contas que usam bots para amplificar o conteúdo. Você não pode criminalizar todas as contas automatizadas. os bots são importantes para várias atividades legítimas. E nem todo bot está envolvido na promoção de conteúdo.

Além disso, algumas pessoas acreditam que o PL pode reduzir o uso legítimo de dispositivos de aprimoramento de conteúdo em emergências, especialmente pelo governo. Especialmente através de serviços de mensagens. Existem muitas listas de transferências que vão além da comunicação interpessoal, privada e individualizada para problemas urgentes.

“O formato do messenger é destinado à comunicação privada. A preocupação é que o sistema de mensagens privadas use automação típica da amplificação de plataforma montada na parede, como Twitter e Facebook, para alcançar um público maior, muito rapidamente, protegido por uma capa criptográfica. Esta pergunta é: quem pode excluir quantidade? recomendações em emergências, acidentes e tudo mais? Vamos abordar isso através da alteração proposta “, informou o senador durante uma transmissão ao vivo.

“Realmente não há como negar o potencial de comunicação de emergência ou de emergência. E esse não é o objetivo da lei. O que fazemos sobre serviços de mensagens é evitar redirecionar seu uso para transformação. Eles em veículos de mídia protegidos criptografados. Isso não é razoável”. “Não é constitucional. Não é apropriado. Não é razoável”, disse o senador.

A falta de identificação da autoria das mensagens é um dos problemas que precisam ser abordados na mensagem. Restrições de encaminhamento de mensagens. Além disso, há limitações técnicas sobre como marcar uma mensagem como desinformação.

Então, segunda-feira, 1º de junho, será um dia crucial

Dadas todas essas preocupações, o Senado decidiu realizar um webinar interno na segunda-feira de manhã, 1º de junho, na plataforma do Senado, onde 10 organizações da sociedade civil ouvirão sobre o projeto. E à tarde, a Frente Digital da Câmara terá uma discussão virtual ouvindo representantes de vários setores, incluindo a academia e as próprias plataformas.

Todos marcaram na segunda-feira porque a corrida está provocando a retirada do projeto de agenda ou, no mínimo, reduzindo os danos.

“Se alguém vier até nós agora e disser que ainda há vagas no texto, que podem ser interpretadas como restrição de conteúdo ou alguma forma de censura, mudaremos”, assegurou o senador, que gostou da proposta de declarar mais objetivamente quem poderia ser o autor da ação. contra a plataforma. Algo que também precisa ser mais claro.

Na sua opinião, o projeto está abordando as emendas que serão apresentadas e ele não está considerando adiar a votação. “Esperamos que o PL seja votado e aprovado e depois passe pelo processo de melhoria”, afirmou.

O relator do PL é o senador Vengelo Coronel (PSD-BA), também presidente da CPI Mista das Fake News. Ele já disse que deveria complementar o projeto com outra, sua própria proposta, para aumentar as multas para quem promove informações erradas na Internet.

Honestamente, seria muito melhor se esse PL fosse o resultado do trabalho da CPI, afinal.

Leave a Comment

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Scroll to Top