O Efeito Bruxelas e a moderação de conteúdo: como a União Europeia influencia o combate global à desinformação

Gustavo Ribeiro

Em 2020, a Professora Anu Bradford, da Universidade de Columbia, publicou a obra “The Brussels Effect: How the European Union Rules the World” (em tradução livre ao português, “O Efeito Bruxelas: Como a União Europeia Governa o Mundo”). Posicionando-se contra a ideia de que o Velho Mundo, ora representado pela União Europeia (UE), perdera seu poder de influência internacional, quando comparado a potências mundiais – como a China e os Estados Unidos –, a autora argumenta que o bloco político-econômico, na realidade, fixa o critério regulatório global adotado por corporações multinacionais numa série de mercados e segmentos legais que operam de forma transnacional. Assim, contribuem para cristalização das regras europeias em outras jurisdições de forma prática (de facto), pela aplicação de instrumentos privados e políticas de serviço e internas ou legal (de jure), a partir de lobbying em favor da adoção de regras similares perante o Poder Legislativo.

A exemplo, no livro destaca-se regulação nas áreas de concorrencial, saúde e segurança do consumidor, ambiental e, no que focaremos neste escrito, economia digital. A esta exportação da regulação europeia à esfera global e outras jurisdições, denominou-se o “Efeito Bruxelas”. Este torna-se mais efetivo na presença de certas condições, tais quais a força de mercado, capacidade regulatória, preferência por regras rigorosas, regulação de objetos inelásticos e a indivisibilidade do critério regulatório

O Efeito Bruxelas Contextualizado

Em termos mais práticos, a UE exporta suas regras ao regular, de forma rigorosa – ou, pelo menos, mais rigorosa que outras jurisdições – corporações que operam de forma transnacional. Ainda, além de possuir a expertise e recursos para produção de regulamentos e diretivas, a UE possui mecanismos efetivos de fiscalização e execução (ou, no inglês, enforcement). Com novas regras, as entidades privadas devem decidir pela adequação ou por deixar o mercado europeu. Além desta capacidade regulatória, a força do mercado comum da União se traduz em um potencial mercado de quinhentos milhões de consumidores.  Diante disto, atores privados decidem pela adequação regulatória. 

Ainda, para que haja efetividade legal, demanda-se que o objeto seja inelástico: é impossível a realocação da atividade sujeita às regras para outra jurisdição com o objetivo de contornar o parâmetro regulatório europeu. E, finalmente, o Efeito Bruxelas ocorre quando os critérios regulatórios são indivisíveis, seja por razões de ordem legal, técnica ou econômica. Por exemplo, no âmbito da economia digital, as regulações aplicáveis à proteção de dados ou moderação de conteúdo são indivisíveis, uma vez que é tecnicamente impossível (ou extremamente oneroso) separar os dados sujeitos a cada regra por jurisdição.

Dessa forma, as empresas de tecnologia escolhem aplicar, globalmente, os critérios regulatórios da UE. Sendo estes os mais rigorosos, tais atores encontram-se adequados às regras de diversas jurisdições sem ter que lidar com a complexidade e os custos de desenvolver e aplicar políticas internas para cada uma das dezenas de jurisdições nas quais atuam. Assim, também transpõem os critérios regulatórios europeus a tais jurisdições por meio de sua atuação prática. Por fim, devido à competitividade face a empresas locais não-sujeitas à rigorosidade dos regulamentos europeus, essas empresas globais advogam em favor da adoção desses parâmetros perante o Legislativo competente.

O Efeito Bruxelas e a Economia Digital: Proteção de Dados e Discurso de Ódio

No contexto da economia digital, a autora já destaca o exemplo primário deste fenômeno: o Regulamento Geral de Proteção de Dados. Este não apenas foi adotado de facto pelas políticas de privacidade de empresas de tecnologia, mas, também, teve seus princípios incorporados de jure em inúmeras leis de proteção de dados ao redor do mundo, incluindo a Lei Geral de Proteção de Dados brasileira.

Além disto, sob o guarda-chuva da moderação de conteúdo online, as regras europeias sobre discurso de ódio também foram de facto externalizadas por meio do Efeito Bruxelas. Isso porque, além dos elementos descritos anteriormente estarem presentes, a Comissão Europeia celebra Códigos de Conduta sobre Discurso de Ódio com empresas tais quais Twitter, YouTube, Facebook e Microsoft. Estas, por sua vez, ao adotarem voluntariamente o código, transpõem os critérios de moderação de conteúdo às regras de comunidade e termos de uso que são, a princípio, vinculantes aos usuários de suas plataformas globalmente. Por conseguinte, o parâmetro europeu é o aplicável de forma prática em tal país.

O Efeito Bruxelas e a Desinformação

Em que pese a desinformação não ter sido endereçada no livro, é possível observar um movimento da UE para regular a moderação de conteúdo nesse contexto. Assim como a Comissão Europeia o fez em relação ao discurso de ódio, nos últimos anos foi elaborado o Código de Conduta sobre Desinformação. Dentre as empresas que o adotaram, destacam-se o Facebook, Google, Twitter, Mozilla, Microsoft e, inclusive, a novata chinesa, TikTok. 

O Código fixa compromissos que englobam transparência de propaganda política, encerramento de contas falsas, desmonetização dos disseminadores de desinformação, a criação de planos de implementação por parte dos signatários, bem como fixa mecanismos para monitorar o cumprimento, tal como relatórios de autoavaliação, avaliação anual e programas de monitoramento.  A título exemplificativo, destacam-se políticas do Facebook (Padrões da Comunidade, Item IV, 21) e Google (AdSense – Políticas para editores do Google: Conteúdo enganoso) que refletem a aplicação do critério europeu no Brasil e, desta forma, o de facto Efeito Bruxelas.

O Futuro da Desinformação sob o Efeito Bruxelas: O Regulamento de Serviços Digitais e Plano de Ação para a Democracia Europeia 2020-2024

Com efeito, a adoção de códigos de conduta sobre moderação de conteúdo pela Comissão Europeia não é um passo regulatório isolado. No final de 2020, a Comissão propôs o Regulamento de Serviços Digitais (em inglês, “Digital Services Act”) que, se aprovado, será aplicável de imediato em todos Estados-Membros, sem necessidade de internalização por instrumento doméstico. A proposta traz nos recitais 67 ao 71 e artigos 35 e 36 que os códigos de conduta auxiliarão na aplicação uniforme e efetiva do regulamento e que estes poderão ser elaborados a partir da identificação de categorias de conteúdo que causem riscos sistemáticos à sociedade e à democracia, tal como a desinformação e o discurso de ódio.

A tendência é que a UE disponha de sua capacidade regulatória para endereçar a desinformação. Isso porque, como denota-se dos dispositivos acima, o combate à desinformação é considerado essencial à preservação das democracias europeias. Tamanha sua importância que foi selecionado como um dos três pilares do Plano de Ação para a Democracia Europeia 2020-2024

É de se esperar, portanto, que nos próximos anos a União intensifique sua influência sobre os tech giants que operam no mercado único do continente e, consequentemente, empregue o soft power do Efeito Bruxelas para nivelar a moderação da desinformação online a nível global.

Gostou deste artigo?

Compartilhe no Facebook
Compartilhe no Twitter
Compartilhe no Linkedin
Compartilhe no Pinterest

sugestões de leitura

O Direito Fundamental à Proteção de Dados Pessoais à Luz da Jurisprudência do Supremo Tribunal Federal

A proteção de dados pessoais tem origem no direito à privacidade, tema especificamente debatido na obra The Right to Privacy por Samuel Warren e Louis Brandeis, publicado em 1890 pela revista Harvard Law Review, a qual começou a delinear tal direito a partir de uma percepção do “direito de estar sozinho” (WARREN; BRANDEIS, 1890, p. 195). Esse conceito de direito à privacidade foi positivado no artigo 12 da Declaração Universal dos Direitos Humanos de 1948, que consagrou o direito à vida privada. A Constituição Federal de 1988 (CF/88) também bebeu dessa fonte e reconheceu tal direito no seu art. 5º, X.