Relator reintroduz subrepticiamente conceito de desinformação na Lei das Fake News

O relator do projeto de lei das “fake news”, senador Ângelo Coronel, apresentou uma nova versão de seu relatório no dia 29 de junho. O texto mais recente tem como principal novidade um retrocesso quanto à regulação de conteúdo na Internet. Se na versão quase votada pelo Senado no dia 25 de junho as “fake news” em si apareciam apenas implicitamente e o principal defeito era exumar mecanismos Lei Azeredo enterrados há mais de dez anos, a atual proposta obriga as plataformas a discernirem entre informação e desinformação.

Na Seção IV do projeto, que trata da moderação de conteúdo pelos provedores de redes sociais, há um parágrafo do artigo 12º determinando que:

§4º O provedor de rede social poderá adotar medidas imediatas
de indisponibilização de conteúdos e contas quando verificar risco de:

I – dano imediato de difícil reparação;
II – segurança da informação ou do usuário;
III – grave comprometimento da usabilidade da aplicação;
IV – incitação à violência contra pessoa ou grupo, especialmente em razão de sua raça, gênero, orientação sexual, origem ou religião;
V – indução a erro, engano ou confusão com a realidade pelo uso de conteúdo de áudio, vídeo ou imagem deliberadamente alterado ou fabricado, especialmente acerca da identidade de candidato a cargo público, ressalvados o ânimo humorístico ou de paródia;
VI – indução, instigação ou auxílio a suicídio ou a automutilação; ou
VII – exploração sexual infantil ou pedofilia

Os tipos de conteúdo previstos nos incisos II, VI, VII e, em parte, IV, já constam nos termos de uso e costumam ser moderados por serviços como Facebook, Twitter, YouTube e Instagram por iniciativa própria. Não faço ideia a que tipo de conteúdo se refere o inciso III. De qualquer forma, é fácil concordar com a moderação dos conteúdos previstos nesses incisos.

O maior problema são os incisos I e V, porque eles exigem dos serviços de redes sociais que determinem o caráter da informação, tarefa para a qual elas não se encontram preparadas e que, de fato, talvez seja impossível na escala necessária. Por exemplo, é relativamente simples identificar as violações listadas nos incisos II, IV, VI e VII, mas ainda assim a moderação muitas vezes comete exageros, como considerar pedofilia a foto de uma criança de torso nu, pornografia a imagem de uma indígena com vestimentas tradicionais, ou apagar imagens fortes denunciando a violação de direitos humanos. A necessidade de cumprir a lei pode levar as plataformas a atirar primeiro e perguntar depois, prejudicando a liberdade de expressão no Brasil.

O inciso I joga sobre o Facebook, Twitter, YouTube e outras empresas a responsabilidade de caracterizar dano, o que deveria ser atribuição do Ministério Público e do Judiciário. A noção de dano é complexa; pode ser fácil de identificar em alguns casos, mas talvez na maioria deles depende de uma análise demorada e, em grande parte, subjetiva. Processos pedindo a reparação por danos morais costumam se estender por muitos anos, porque é difícil para a vítima comprovar a relação causal entre, por exemplo, as ofensas de um chefe machista e prejuízos concretos no cotidiano.

Por um lado, o inciso I coloca as empresas numa situação de insegurança jurídica: se deixarem de cumprir a norma, eliminando imediatamente um texto, imagem ou vídeo que arrisque causar dano a alguém, podem ser alvo de sanções; se pesarem a mão no cumprimento da norma, o que é inevitável na escala na qual trabalham, podem ser alvo de demandas judiciais pelos usuários prejudicados. O relatório prevê uma compensação para o segundo cenário no mesmo artigo:

§8º O dano em virtude da indisponibilização de conteúdo que
tenha sido equivocadamente identificado como violador de termo de uso ou do disposto nesta Lei será reparado pelo provedor de rede social de maneira destacada e que garanta visibilidade proporcional.

Como qualquer jornalista ou alvo de reportagem jornalística sabe, porém, é muito raro que a “visibilidade proporcional” com direitos de resposta repare os prejuízos à imagem ou à verdade. O parágrafo determina o inverso, é claro, pois os danos seriam causados pela ausência da informação. Todavia, a deficiência da visibilidade proporcional para reparar esse dano é muito semelhante, porque há um custo de oportunidade envolvido. O fluxo de conteúdo nas redes sociais acompanha o movimento da sociedade e o interesse do leitor flutua na mesma dinâmica, por isso ter uma publicação inacessível por alguns dias ou até mesmo horas causa um dano irreparável a seu criador. O mesmo vale para o jornalismo: ninguém se interessa por notícias da semana passada.

Portanto, é muito possível uma enxurrada de demandas judiciais as empresas de redes sociais por parte de clientes que dependem das mesmas para a sua renda, caso venham a ter conteúdo moderado conforme o previsto no relatório do PL 2630, mesmo se elas observarem o parágrafo 8º. Da mesma forma, o mecanismo coloca em desvantagem o cliente dos serviços de redes sociais que venha a sofrer danos pela moderação equivocada de conteúdo. Como a visibilidade proporcional raramente compensa os danos, qualquer produtor de conteúdo prejudicado por moderação excessiva sem condições financeiras de questionar na justiça os provedores terá de absorver o custo.

Por outro lado, o inciso I abre as portas para todo tipo de abuso por parte justamente dos grupos criminosos que o projeto de lei pretende combater. Os sistemas de moderação das redes sociais em geral funcionam de forma semiautomática, tendo como ponto inicial, muitas vezes, as denúncias de usuários. Quando se denuncia a exposição de dados pessoais ou incentivo ao suicídio, a validação é fácil. Validar uma denúncia de “dano imediato” é difícil, senão impossível, mesmo para um ser humano capacitado.

Antes de mais nada, o que os autores do relatório têm em mente quando falam em dano? Circulação de um vídeo erótico privado por um ex-namorado vingativo? Imagens potencialmente traumatizantes, como decapitações de prisioneiros por grupos terroristas? Assuntos que disparam gatilhos psicológicos, como textos sobre abuso sexual? No primeiro exemplo o dano imediato é claro, mas nos outros dois os prejuízos ao denunciante deveriam ser analisados pela justiça. Mesmo sem uma legislação como o PL 2630, militantes políticos se organizam para denunciar em massa os conteúdos e perfis que desejam suprimir da esfera pública, muitas vezes com sucesso. Nos termos propostas, a nova lei vai dar ainda mais poder a esses grupos.

Como o texto prevê sanções aos provedores, caso não tomem ações imediatas para eliminar o conteúdo prejudicial, o mais provável é que as plataformas prefiram adotar o padrão de esconder qualquer material denunciado antes de qualquer avaliação aprofundada. A experiência do Digital Millenium Copyright Act, lei criada nos Estados Unidos para proteger direitos autorais na Internet, sugere que este será o caminho: mais de 20 anos após sua entrada em vigor, as plataformas ainda não encontraram uma maneira de evitar o abuso do mecanismo por agentes interessados em calar jornalistas e ativistas, entre outras chicanas.

O inciso V parece se preocupar com a circulação de deep fakes, vídeos que reproduzem a aparência, voz e outros elementos característicos de uma pessoa, podendo ser usados para forjar declarações de políticos, por exemplo. Nas eleições de 2018, por exemplo, emergiu um suposto vídeo íntimo do candidato João Doria se divertindo com quatro mulheres. Uma discussão sobre a veracidade do vídeo se estendeu por semanas e poderia ter custado a eleição ao hoje governador. A preocupação é, portanto, legítima.

Determinar a autenticidade de um vídeo, imagem, áudio ou texto pode ser difícil, no entanto. O próprio vídeo de Dória dividiu as opiniões de peritos. Então, se não houver uma tecnologia capaz de realizar esse tipo de análise, restará às plataformas aguardar o resultado de uma perícia, arriscando sofrer sanções pela falta de imediatismo na moderação, ou eliminar todo e qualquer conteúdo denunciado imediatamente e o restaurar se uma análise comprovar sua veracidade. Assim como no caso do “risco de dano imediato”, é muito provável que dêem preferência à segunda opção.

Portanto, o inciso V pode resultar num festival de denúncias contra vídeos e outros conteúdos legítimos, em especial durante as campanhas políticas, nas quais mesmo um dia de confusão pode fazer a diferença entre um candidato ganhar ou perder. Se alguém filmar um candidato, digamos, agredindo uma criança e publicar o vídeo no YouTube, seus militantes podem se organizar para denunciar o material e suprimir sua existência por tempo suficiente para garantir os resultados eleitorais.

Além disso, embora o relator de maneira sensata faça uma ressalva para resguardar o humor e as paródias, determinar o caráter paródico ou humorístico é tão ou mais difícil do que determinar o dano potencial de um conteúdo, ou definir desinformação. Com toda certeza isso não pode ser feito por um algoritmo e, portanto, ficará a cargo de funcionários das empresas, de promotores e de juízes. Um elemento complicador é que, hoje em dia, muitos programas jornalísticos adotaram uma linguagem humorística, como o Greg News, complicando ainda mais o trabalho de discernir entre informação, humor, paródia e desinformação. Não faltam casos de paródias, charges e outros conteúdos humorísticos legítimos suprimidos pelo Judiciário no Brasil.

Em resumo, o texto do relator sofre do mesmo defeito fundamental de outros projetos que pretendem resolver o problema da desinformação através de leis: arriscam as liberdades de expressão e imprensa para obter resultados, na melhor das hipóteses, duvidosos.


ATUALIZAÇÃO: Na tarde do próprio dia marcado para a votação do substitutivo apresentado por Ângelo Coronel, pouco antes da publicação deste artigo, o senador apresentou ainda outra versão do texto, que suprime o inciso V discutido acima. As ressalvas levantadas contra o trecho seguem úteis para a discussão do projeto como um todo e a confusão mostra como o Congresso vem dificultando o monitoramento da sociedade civil sobre a matéria.

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *