Entenda qual o (principal) objetivo do chamado PL das Fake News (2630) e por qual razão as plataformas digitais se mostram contrárias ao projeto.
O assim nominado “PL das Fake News”, em apertado resumo, estabelece novas regras para a moderação de conteúdo por parte das plataformas digitais, as quais passam a ser alvos de rígidas punições se não atuarem “diligentemente para prevenir e mitigar práticas ilícitas no âmbito de seus serviços” – uma clara importação de conceito adotado na Lei dos Serviços Digitais, vigente em território europeu.
Atualmente, o Marco Civil da Internet (Lei nº 12.965/2014) não impõe às chamadas big techs a responsabilidade pelo conteúdo criado pelos usuários de suas plataformas. Em razão dessa premissa, referidas empresas só se veem compelidas a deletar determinados conteúdos mediante decisão judicial – fenômeno que exponencialmente se percebe em meio às representações que tramitam na Justiça Eleitoral durante os pleitos.
Se aprovada a redação do projeto da forma como hoje está redigida, as próprias plataformas passam a ser responsabilizadas no âmbito civil pela circulação de postagens que se amoldem a crimes já tipificados na legislação atual, como aqueles praticados contra o Estado Democrático de Direito, os de cunho terrorista (inclusive preparatórios), os relacionados à prática de suicídio, os relacionados à violação de medidas sanitárias, racismo, bem como aqueles que dizem respeito à violência contra crianças e adolescentes e contra a mulher.
Essa responsabilização poderia se dar (a) quando determinado conteúdo fosse patrocinado ou impulsionado (quando a plataforma for remunerada pela proliferação artificial do ilícito, portanto) e (b) quando tais empresas falharem na contenção da disseminação do conteúdo irregular, obrigação prevista em seu “dever de cuidado”, novamente um conceito importado dos europeus.
Consta no projeto que as plataformas terão que produzir “relatórios de avaliação de risco sistêmico e transparência”, com a finalidade de se criar um meio para fiscalizar a atuação das plataformas. Caso se perceba em meio a essa fiscalização um “risco iminente de danos à dimensão coletiva de direitos fundamentais” ou “descumprimento das obrigações estabelecidas na seção da avaliação de risco sistêmico”, será adotado um “protocolo de segurança pelo prazo de até 30 dias, procedimento de natureza administrativa cujas etapas e objetivos deverão ser objeto de regulamentação própria”.
Durante esse protocolo, as plataformas poderiam ser punidas se falhassem no seu “dever de cuidado”. Só que para identificar se houve falha, um órgão fiscalizador – que ainda não se sabe qual seria, precisamente – analisaria notificações dos próprios usuários sobre conteúdos criminosos compartilhados na plataforma. O projeto estipula que não haverá punição em cada caso notificado, mas sim nas hipóteses de eventual falha generalizada.
As grandes plataformas se mostram contrárias ao projeto por entender que o texto abriria margens para interpretações imprecisas acerca do que seria criminoso pelos próprios usuários, permitindo, sem intervenção judicial, a retirada de conteúdos possivelmente legítimos. E isso, defendem, resultaria num “bloqueio excessivo e uma nova forma de censura” – expressão utilizada pela maior empresa de buscas on-line em pronunciamento.
Mais que isso: as big techs compreendem que poderia haver um abuso de direito, consistente, em ações orquestradas em denúncias individuais, permitindo que pessoas e grupos mal-intencionados inundem os sistemas com requerimentos para remover conteúdos sem nenhuma proteção legal.
A votação deve acontecer ainda esse mês.