Eduarda Costa e Thiago Moraes
Está em tramitação no Senado Federal o Projeto de Lei (PL) n° 2630/2020 que institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet. Esse PL visa combater a disseminação de desinformação na internet, especificamente em redes sociais, como o Facebook, e em serviços de mensageria privada, a exemplo do Whatsapp. Diante da influência de fake news no cenário político e sanitário, o presidente do Senado, Davi Alcolumbre, está se esforçando para que o PL entre em pauta nesta terça-feira e seja votado ainda esta semana [1]. A urgência para votar o PL também é justificada porque circulam notícias falsas na internet a respeito do próprio presidente do Senado e vários outros parlamentares.
No entanto, a matéria do PL e suas implicações ainda são controversas quando comparado ao debate que vem ocorrendo no ambiente internacional. Ainda, várias organizações da sociedade civil, inclusive o LAPIN em ação coordenada com a Coalizão Direitos na Rede se posicionaram em desfavor da redação inicial do PL em questão. Inicialmente, é fundamental separar o conceito de fake news e o de desinformação. O termo fake news foi apropriado por políticos em todo o mundo para descrever notícias cuja cobertura lhes é desagradável e assim descredibilizar opositores políticos [2]. Já a desinformação, conforme definida pela Comissão Europeia, entende-se por informação falsa ou enganadora que visa causar prejuízo, normalmente criada, apresentada e divulgada para obter vantagens económicas ou para enganar deliberadamente o público [3]. Logo, o problema está na intenção maliciosa de enviar a informação falsa. Além disso, o termo “fake news” é uma contradição, pois a notícia tem por pressuposto a notificação do fato verdadeiro, algo que não existe no falso [4].
Buscando identificar a desinformação, o Conselho da União Europeia evidencia quais são seus componentes mais recorrentes: (i) os agentes produtores das desinformações desde a concepção à publicação; (ii) a mensagem caracterizada como desinformação, e; (iii) os intérpretes, usuários das redes que recebem as mensagens [5]. Corroborando com essa análise, em 2017, o Facebook publicou um estudo sobre as “ações tomadas por atores organizados (governos ou atores não estatais) para distorcer o sentimento político interno ou estrangeiro, mais frequentemente para alcançar um resultado estratégico e/ou geopolítico” [6], verificando como esses grupos usam a desinformação para manipular a opinião pública. A seguir, trazemos mais alguns estudos que analisaram a questão da desinformação no Brasil.
Uma pesquisa da universidade de Oxford que classificou diversos países em nível fraco, médio e forte quanto à disseminação de fake news. O Brasil foi classificado como um país que possui tropas cibernéticas para controle das redes organizadas de médio grau, ou seja, são equipes com estratégias consistentes, envolvendo funcionários em tempo integral que estão empregados o ano todo para controlar o espaço de informações [7]. Conforme a pesquisa, essas equipes são usualmente coordenadas com vários tipos de atores na sociedade e experimentam uma ampla variedade de ferramentas e estratégias para manipulação de mídias sociais. Com isso, nota-se que a prática de disseminação de desinformação é feita de forma profissional e constante por parte de grupo da sociedade, muitas vezes o conteúdo da desinformação é de teor político [8].
Outra pesquisa produzida pela universidade de Baltimore indica que, no Brasil, gastou-se mais de 34 milhões de dólares para promover desinformação nas eleições presidenciais de 2018 [9]. Além disso, em uma amostra de 11.957 mensagens virais compartilhadas em 296 grupos de bate-papos no Whatsapp no período da campanha, aproximadamente 42% das publicações consideradas em apoio ao presidente eleito continham informações consideradas falsas pelos verificadores de fatos [10]. Dessa forma, é fundamental considerar quem financia o mercado da desinformação e sob quais interesses esses agentes atuam na internet. Tudo indica que, majoritariamente, são organizações disponíveis em vários canais de comunicação que publicam desinformação de forma volumosa, rápida, contínua, repetitiva e sem comprometimento com a realidade objetiva. Por isso, verifica-se que o fenômeno da desinformação é multifacetado e apenas uma medida de regulação não será suficiente para mitigar os efeitos negativos na sociedade [11].
Por fim, um estudo conduzido em dezoito países pela BBC, em setembro de 2017, descobriu que 79% dos entrevistados disseram estar preocupados com o que era falso e o que era real na internet. No Brasil essa taxa aumenta significativamente, a população brasileira era a que estava mais preocupada, 92% dos entrevistados dessa país expressaram alguma preocupação sobre o assunto [13]. Com isso, observa-se a necessidade de que atitudes sejam tomadas para minimizar os efeitos negativos da disseminação de desinformação por meio digital.
Diante dessas informações, entende-se porque o PL proposto no Senado busca combater o fenômeno, tentando garantir transparência aos usuários das redes sociais. Por exemplo, a proposta obriga a plataforma a informar quando um conteúdo é patrocinado ou financiado por alguma instituição. A transparência para ajudar a identificar comportamentos inautênticos mal intencionados, muitas vezes disseminadas por contas automatizadas (os famosos bots) é mais que bem vinda, embora qualquer obrigação nesse sentido deve tomar cuidado para não ferir direitos à privacidade dos usuários das plataformas, tampouco o segredo comercial e industrial. Ademais, há que se lembrar que existem “bots do bem”, tais como a Beta, bot do Facebook que traz informações sobre temas de gênero que são discutidos no Congresso Nacional, ou a Rosie, bot que analisa irregularidades fiscais de parlamentares e as denuncia no Twitter [14].
Contudo, o projeto vai além, trazendo previsões de responsabilidade dos provedores de aplicações na internet pela propagação da desinformação (art. 9º). E é aqui que mora o problema. Esses provedores são empresas que fornecem um conjunto de funcionalidades as quais podem ser acessadas por meio de um terminal conectado à internet [15], por exemplo as redes sociais, como o Facebook, Instagram e Youtube, ou ainda, serviços de mensagem instantânea, como o WhatsApp e o Telegram. Porém, responsabilizar empresas é mais delicado do que parece, visto que certas obrigações podem colocar em risco a liberdade de expressão dos usuários da web, indo em sentido contrário ao garantido pelo Marco Civil da Internet (MCI).
O MCI afirma que provedores de aplicação somente poderão ser responsabilizados por danos decorrentes de conteúdo gerado pelos usuários quando houver ordem judicial específica determinando a retirada de um conteúdo e ela não for cumprida (art. 19). Logo, depois de muito debate, afirmou-se que esses provedores não teriam acesso ao conteúdo dos usuários diante da finalidade de assegurar-se a liberdade de expressão e impedir-se a censura. Não obstante, diversos projetos de lei, como o PL ora analisado, buscam inverter essa ordem e garantir que provedores de aplicação sejam obrigados a inspecionar o conteúdo postado nas plataformas e, se considerar necessário, “derrubar” um post considerado prejudicial.
A posição assumida pelo PL traz riscos para a efetivação da liberdade de expressão. Com o desenvolvimento da internet, o ambiente digital se tornou um campo para debates de valores sociais e políticos entre os usuários e, com isso, para exercer o direito de expressão de forma livre. Assim, qualquer legislação que atribua responsabilidades e obrigações às plataformas correm o risco de tornar os provedores de aplicação juízes e polícias privadas sobre o que terceiros podem postar ou não em suas redes sociais. Dessa forma, incentivar que esses provedores removam os conteúdos postados significa distorcer a ideia de uma Internet descentralizada, livre e aberta [16]. Neste ponto o tema não é novo e antes da aprovação do Marco Civil da Internet, o Brasil sofreu vários casas de ordens de remoção e bloqueio de sites e conteúdo [17]. Além disso, forçar o monitoramento de certos serviços, como os de mensageria instantânea, pode implicar em um alto grau de invasividade, o que afronta diretamente nossa Carta Constitucional. Foi neste sentido que o Ministro Edson Fachin recentemente pronunciou sobre a importância da criptografia para o sigilo das comunicações, afirmando que o uso da tecnologia é direito fundamental de todo e qualquer indivíduo protegido pelo ordenamento brasileiro [18]. Com a aprovação do PL em seu atual formato, os provedores deixam de ser intermediários de debates para se tornarem fiscais e julgadores do que pode ser expressado ou não no espaço digital.
Caso o atual texto legislativo seja mantido, haverá profundas implicações nas liberdades dos usuários de plataformas, que poderão ter seus direitos de expressar seus pensamentos de forma autônoma mitigados. Isto porque o mecanismo de responsabilização nele previsto incentiva os provedores de aplicação a interferir no debate online, sob o temor de serem punidos caso não o façam.
O que a lei deve focar é na garantia de mais transparência. A moderação de conteúdo já é realizada por estas plataformas digitais, inclusive com o auxílio de inteligência artificial [19]. Contudo, as medidas aplicadas e o processo de tomada de decisão não são claros e, muitas vezes, um usuário que tem seu conteúdo moderado não é informado adequadamente sobre o porquê disso, nem lhe tem garantido um direito de resposta. Para sanar isto, provedores de aplicação devem publicar suas políticas de restrição de conteúdo, em linguagem clara e em formatos acessíveis [20], e fornecer mecanismos, através de um devido processo, que lhe permita recorrer e, em caso de erro da plataforma, ser devidamente retratado. Um PL da “fake news” deve focar mais na transparência e menos na responsabilização de provedores. Caso contrário, o exercício da liberdade de expressão no Brasil poderá ser profundamente mitigado.
[1] AGÊNCIA SENADO. Senado vota PL das Fake News na próxima semana, avisa Davi Fonte: Agência Senado. 2020. Disponível em: https://www12.senado.leg.br/noticias/materias/2020/05/26/senado-vota-pl-das-fake-news-na-proxima-semana-avisa-davi. Acesso em: 30 mai. 2020.
[2] COUNCIL OF EUROPE. Information Disorder: Toward an interdisciplinary framework for research and policy making. 2017. Disponível em: https://rm.coe.int/information-disorder-toward-an-interdisciplinary-framework-for-researc/168076277c. Acesso em: 30 mai. 2020. p. 5
[3] COMISSÃO EUROPEIA. Comunicação da Comissão ao Parlamento Europeu, ao Conselho, ao comité económico e social europeu e ao comité das regiões. 2018. Disponível em: https://ec.europa.eu/transparency/regdoc/rep/1/2018/PT/COM-2018-236-F1-PT-MAIN-PART-1.PDF. Acesso em: 30 mai. 2020. p. 1.
[4] UNESCO. Jornalismo, fake news & desinformação: manual para educação e treinamento em jornalismo. 2019. Disponível em: https://unesdoc.unesco.org/ark:/48223/pf0000368647.locale=en%20http:/www.ufrgs.br/obcomp/noticias/0/652/unesco-lanca-manual-de-jornalismo-para-combater-. Acesso em: 30 mai. 2020.
[5] COUNCIL OF EUROPE. Information Disorder: Toward an interdisciplinary framework for research and policy making. 2017. Disponível em: https://rm.coe.int/information-disorder-toward-an-interdisciplinary-framework-for-researc/168076277c. Acesso em: 30 mai. 2020.
[6] FACEBOOK. Information Operations and Facebook. 2017. Disponível em: https://fbnewsroomus.files.wordpress.com/2017/04/facebook-and-information-operations-v1.pdf. Acesso em: 30 mai. 2020. p. 4.
[7] BRADSHAW, Smantha; HOWARD, Philip. The Global Disinformation Order 2019 Global Inventory of Organised Social Media Manipulation. 2019. https://comprop.oii.ox.ac.uk/wp-content/uploads/sites/93/2019/09/CyberTroop-Report19.pdf. Acesso em: 30 mai. 2020.
[8] Ibidem.
[9] CHEQ. The Economic Cost of Bad Actors on the internet. 2019. Disponível em: https://s3.amazonaws.com/media.mediapost.com/uploads/EconomicCostOfFakeNews.pdf. Acesso em: 30 mai. 2020.
[10] Ibidem.
[11] COUNCIL OF EUROPE. Information Disorder: Toward an interdisciplinary framework for research and policy making. 2017. Disponível em: https://rm.coe.int/information-disorder-toward-an-interdisciplinary-framework-for-researc/168076277c. Acesso em: 30 mai. 2020. p. 29.
[12] Idem, p. 12.
[13] Ibidem.
[14] CEROY, Frederico. Os conceitos de provedores no Marco Civil da Internet. 2014. Disponível em: https://www.migalhas.com.br/depeso/211753/os-conceitos-de-provedores-no-marco-civil-da-internet. Acesso em: 30 mai. 2020.
[15] PALLERO, Javier, et al. Contribuições para uma regulação democrática das grandes plataformas que garanta a liberdade de expressão na internet. 2020. Disponível em: https://www.observacom.org/wp-content/uploads/2019/08/Contribuic%CC%A7o%CC%83es-para-uma-regulac%CC%A7a%CC%83o-democra%CC%81tica-das-grandes-plataformas-que-garanta-a-liberdade-de-expressa%CC%83o-na-internet.pdf. Acesso em: 20 mai. 2020.
[16] STF. Arguição de Descumprimento de Preceito Fundamental 403. Relator: Min. Edson Fachin. Julgamento em: 28 mai. 2020. Disponível em: http://www.stf.jus.br/arquivo/cms/noticiaNoticiaStf/anexo/ADPF403voto.pdf. Acesso em: 20 mai. 2020.
[17] CONSULTANTS CAMBRIDGE. Use of AI in online content moderation. 2019. Disponível em: https://www.ofcom.org.uk/__data/assets/pdf_file/0028/157249/cambridge-consultants-ai-content-moderation.pdf. Acesso em: 20 mai. 2020.
[18] PALLERO, Javier, et al. Contribuições para uma regulação democrática das grandes plataformas que garanta a liberdade de expressão na internet. 2020. Disponível em: https://www.observacom.org/wp-content/uploads/2019/08/Contribuic%CC%A7o%CC%83es-para-uma-regulac%CC%A7a%CC%83o-democra%CC%81tica-das-grandes-plataformas-que-garanta-a-liberdade-de-expressa%CC%83o-na-internet.pdf. Acesso em: 20 mai. 2020.