por Amanda Espiñeira e Alexandra Krastins Lopes
O Ministério Público do DF e Territórios realizou no dia 16 de abril, por meio da Unidade Especial de Proteção de Dados e Inteligência Artificial, audiência pública para debater o uso de ferramentas de reconhecimento facial, objeto do Inquérito Civil Público n.08190.052289/19–84. A audiência contou com a contribuição de representantes da comunidade acadêmica, sociedade civil e setores público e privado. O Lapin esteve presente na audiência e apresenta uma breve nota com os conteúdos mais relevantes debatidos.
Com relação à privacidade levantou-se o seu desdobramento em direito à proteção de dados pessoais, como também a questão da convergência do uso das tecnologias de reconhecimento facial com legislações como a GDPR — General Data Protection Regulation, e a LGPD — Legislação Geral de Proteção de Dados.
Para essa convergência, devem ser analisados os dispositivos das normas legais, especialmente no que se refere ao tratamento de dados, como por exemplo, os requisitos elencados no art. 7º da LGPD, nos quais se estabelece a necessidade do consentimento informado e do legítimo interesse. Contudo, ressalta-se a possibilidade de tratamento de dados com ponderação legal sem consentimento e que não configuraria uma ofensa à privacidade, como por exemplo nos casos de quebra de sigilo bancário em esfera investigativa e informações negativas relativas a créditos de consumidor.
Tecnologias como as de dados biométricos e reconhecimento facial podem ser, de fato, muito úteis para a sociedade e trazer inúmeros benefícios, como segurança, agilidade, identificação de pessoas. Por outro lado, precisam ser debatidas diante de erros frequentes e estado de tensão ocasionado por uma constante vigilância.
Com relação à forma de tratamento de dados, é importante valorar os significados sociais e de mercado que esses dados possuem, como nas hipóteses de coleta de dados sensíveis tais como os biométricos, os quais demandam cuidados extraordinários.
O representante da comunidade acadêmica Bruno Bioni, representando a Data Privacy Brasil, trouxe a necessidade de se estabelecer estratégias de regulação na esfera de inteligência artificial, e mencionou casos de escândalos relacionados aos mecanismos de machine learning, como a ocorrência de falsos positivos e um estudo da Universidade de Gerogetown, relacionado à segregação de cor.
Com relação à essa regulação da inteligência artificial, pontuou que os próprios atores poderiam estabelecer códigos de boas condutas, banimento ou moratória de tecnologias em hipóteses de concretização de malefícios, e assim se auto-regular para o controle de riscos. Não excluída, porém, a regulação estatal com uma série de gradações.
Foram trazidos ao debate, exemplos de legislações regulatórias e ponderado que a maioria adota uma postura flexível, baseada no consentimento e legítimo interesse. Quanto à LGPD, o modelo de arranjo institucional adotado para autoridade nacional de proteção de dados definirá o seu nível de flexibilidade e risco.
A sociedade civil, com a sua representante Bruna Santos, da Coding Rights também levantou temas como a banalização da coleta de dados que possuem efeitos e as inovações na vida prática dos cidadãos com o uso da tecnologia de reconhecimento facial em situações como check-in para embarques em aeroportos, utilização de smartphones, reconhecimento de fotografias, facilitação de despachos aduaneiros, entre outros.
Por meio dessas tecnologias, é possível realizar o mapeamento de gostos e atividades, os quais podem ser utilizados pelo setor privado para personalização de serviços e prevenção de frau des e pelo setor governamental para atingir finalidades relacionadas à segurança pública. Entretanto, tendo em vista o caráter dessas tecnologias altamente invasivas, questões de privacidade, de exercício de atividades cívicas, de falsos positivos e de acuracidade devem ser levadas em consideração.
Outro ponto importante se refere à possibilidade de acesso aos dados coletados e a forma de tratamento. Para isso, deve haver um alinhamento de ideias nos processos, aplicação de requisitos de transparência e empoderamento dos cidadãos para que tenham acesso à possibilidades de proteção.
O representante do setor público, Rafael Oliveira, do Instituto Nacional de Criminalística, trouxe ao debate alguns benefícios do reconhecimento facial no âmbito da polícia federal, como por exemplo a localização de pessoas desaparecidas, a difusão de conhecimento na pesquisa forense, o controle migratório informatizado, a capacitação de peritos e a facilitação da persecução criminal. Entretanto, ressaltou a necessidade de requisitos técnicos, de especialistas e de finalidades específicas para a coleta e armazenamento do dado proveniente de reconhecimento facial.
O representante da Acesso Digital, Diego Martins, levantou um ponto de atenção relativo às identificações de comportamentos, que necessitam de debate e talvez de regulação específica.
O MPDFT, na pessoa do Promotor Frederico Ceroy, trouxe projetos apresentados ao Ministério da Justiça: 1) replicação, para o Brasil, do que a autoridade do Reino Unido faz para adequação ao órgãos públicos à legislação de proteção de dados; 2) posposta do MPDFT 4.0, mediante a utilização do Fundo de Direitos Difusos, para obtenção das melhores tecnologias.
Os representantes da Certisign apresentaram a Certibio, uma unidade de negócio da empresa, para uso de identificação de pessoas, que pode vir a trazer benefícios para a segurança pública. Relataram ainda, que a LGPD inviabilizou a aplicação de algumas tecnologias benéficas, mas que a empresa respeitará a legislação vigente e atuará com ética. Mencionaram que no âmbito consumerista e de cidadania já existem princípios muito bem estabelecidos, e que esse deveria ser o modelo regulatório adotado, de forma que os desdobramentos fossem autorregulados.
Ademais, abordaram a necessidade de a autoridade nacional de proteção de dados, cujo modelo encontra-se em discussão no Congresso Nacional no âmbito da MP 869/2018, deve ser capaz de ajudar as organizações e agentes a aplicar da melhor forma os princípios e regulamentos.
Após o importante debate, concluímos que as tecnologias de vigilância, como de reconhecimento facial e biometria, apenas devem ser utilizadas se os princípios estabelecidos no Marco Civil da Internet e na Lei Geral de Proteção de Dados forem devidamente respeitados.
Amanda Espiñeira é doutoranda em Direito pela Universidade de Brasília (UnB). Mestre em Direito pela UnB, bolsista CAPES. Advogada. Bacharel em Direito pela Universidade Federal da Bahia (UFBA). Membro do Grupo de Estudos em Direito das Telecomunicações (GETEL) e pesquisadora do Laboratório de Políticas Públicas e Internet – LAPIN/UnB
Alexandra Krastins Lopes é advogada empresarial, formada em Direito pela Pontifícia Universidade Católica de Campinas, Especialista em Direito Contratual pela Pontifícia Universidade Católica de São Paulo e Pesquisadora do Laboratório de Políticas Públicas e Internet — LAPIN/UnB.