Notícias falsas do PL: remover posts tem muitos detalhes, dizem analistas – 17.7.2020

No terceiro dia do debate na Câmara dos Deputados sobre a proposta de suprimir a disseminação de notícias falsas na Internet (Projeto de Lei 2630/20), não houve consenso sobre as regras previstas para moderar o conteúdo nas redes sociais e sobre a melhor maneira de conter ataques de honra às redes.

O deputado Nereu Crispim (PSL-RS) criticou a possibilidade de anonimato em ataques às mídias sociais, especialmente contra políticos, dizendo que a justiça demora para decidir sobre ataques à honra pessoal; e acusou as plataformas de não responderem efetivamente a denúncias de difamação do cidadão.

“Temos que remover o anonimato. Um bom cidadão não terá problemas para ter seus dados. Somente um criminoso se importará”, disse ele. Para ele, é necessário revelar o CPF e a identidade do usuário para evitar ataques de honra.

João Guilherme Bastos, do Instituto Nacional de Democracia Digital Ciência e Tecnologia, no entanto, disse que a divulgação dos dados não impediria ataques de honra, enfatizando que os dados pessoais poderiam ser usados ​​para fins ilegais.

O diretor executivo do site Na Facts – uma plataforma de verificação de informações públicas – Tai Nalon, confirmou que “os grandes mecanismos de desinformação na rede não são ‘tias zap’, não são usuários desinformados, mas políticos com mandatos e influência na rede”, s contas certificadas.

Decisão judicial

Bia Barbosa, da coalizão de direitos on-line, concordou com Nere Crispim que a justiça poderia ser mais rápida e ativa. Mas ele considerou a previsão contida no Marco Civil de que a Internet de que um provedor de aplicativos poderia ser responsabilizado por determinado conteúdo somente se não cumprisse uma decisão judicial exigindo sua remoção.

Isso não impede que as plataformas tenham suas próprias regras de uso para remoção de conteúdo.

Ela considerou crucial que o direito do usuário de perceber quando a plataforma remove o conteúdo de sua autoria fosse retido no texto da lei e enfatizou que as empresas hoje nem sempre o fazem.

Além disso, para não violar a liberdade de expressão, defendeu a retenção no texto do usuário do direito de contestar a remoção de determinado conteúdo e o direito de responder na mesma medida e na medida em que o conteúdo é considerado inadequado.

Excessivamente detalhado

No entanto, alguns especialistas consideraram que as regras sobre remoção de conteúdo, previstas no artigo 12 da proposta aprovada pelo Senado, eram muito detalhadas.

Advogado e professor da UERJ Carlos Affonso Souza ele foi um dos que expressaram essa preocupação. Por exemplo, ele considerou excessivo obrigar as plataformas a notificar os usuários não apenas sobre conteúdo e contas removidos, mas também sobre reclamações recebidas pela plataforma.

Quanto ao direito de resposta, ele observou que algumas plataformas como Wikipedia e YouTube agora têm formas descentralizadas de moderação, que são gerenciadas pelo próprio usuário – os youtubers podem, por exemplo, remover comentários. E ele perguntou como o direito de resposta seria garantido na mesma extensão e na extensão do conteúdo considerado inadequado nesses casos.

Política do Google

A gerente de políticas do Google no Brasil, Juliana Nolasco Ferreira, também considerou o artigo 12 da proposta excessivo. Na sua opinião, a obrigação de denunciar usuários não deveria existir no caso de uma reclamação.

Ela garantiu aos parlamentares que a empresa já estava alinhada com os objetivos da lei e que “já leva a sério a obrigação de combater as informações erradas”, preparando relatórios de transparência, por exemplo, conforme previsto no projeto de lei.

Segundo Juliana, os seguintes princípios se aplicam ao YouTube (plataforma de vídeo do Google): remoção de conteúdo que viola o uso da plataforma; recomendar conteúdo de qualidade; reduzir a disseminação de conteúdo questionável ou prejudicial; e recompensar criativos confiáveis.

Para remover esse conteúdo, as máquinas são reconhecidas e visualizadas por humanos, e os usuários também podem marcar conteúdo que viole os termos de uso. Juliana, no entanto, reconhece que o processo não está livre de erros; portanto, nesse caso, o usuário pode registrar uma reclamação e o vídeo pode ser reativado.

“No primeiro trimestre de 2020, 6,1 milhões de vídeos foram removidos do YouTube, mais da metade relacionados a spam, práticas e golpes fraudulentos e segurança infantil”, disse ele. E, ela disse, 49% desse conteúdo foi removido antes da primeira revisão.

Punição

Para o professor Rony Vainzof, especialista em direito digital, a justiça não deve ser a porta para todas as decisões para remover conteúdo e contas e deve se limitar à resolução de disputas.

Na sua opinião, a lei deveria obrigar as plataformas a ter um mecanismo que garanta ao oponente e ampla defesa e regras para remover contas falsas, por exemplo – como já indicado no PL 2630/20.

Ele também defendeu a provisão legal de novos tipos de sanções para punir aqueles que financiam a desinformação no nível industrial – o que não está no texto hoje.

Para Vainzof, a lei deve criar obrigações mínimas para plataformas, e o restante das regras deve ser para “auto-regulação regulamentada” – por exemplo, para um código de conduta.

O projeto que está sendo analisado na Câmara prevê que esse código seja desenvolvido pelo Conselho de Transparência e Responsabilidade na Internet, que será iniciado pelo Congresso, com a participação da sociedade pública, privada, civil e da comunidade acadêmica.

A congressista Margareta Coelho (PP-PI) também acredita que a auto-regulação da plataforma – regulamentada por lei – é a maneira mais eficaz de combater as informações erradas e proteger a democracia. Ela também enfatizou que a lei brasileira já oferece meios para buscar indenização por danos à parte pessoal.

Leave a Comment

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Scroll to Top