O que Unmasking AI nos ensina sobre nossa reação a sistemas falhos de reconhecimento facial?

Ana Carolina Dias

No documentário Coded Bias (Netflix), de 2020, conhecemos a pesquisadora e ativista Joy Buolamwini, que fundou a Algorithmic Justice League (Liga da Justiça Algorítmica), organização engajada em conscientizar a população dos perigos de sistemas de Inteligência Artificial (IA) enviesados. Em 2023, ela lançou sua biografia Unmasking AI, que se tornou uma referência na atual discussão sobre fairness*.

No livro, ela descreve seu processo, quase “migratório”, entre ser uma cientista da computação e uma ativista pela ética em sistemas computacionais, tomando posições acadêmicas mais fortes, como se posicionar contra uma big tech mais poderosa (arriscando assim possibilidades de bolsas ou investimentos em seu laboratório) ou falar no Congresso estadunidense sobre as problemáticas do reconhecimento facial.

O que mais me marcou na obra foi a mudança que ela descreveu entre ingressar no mundo da Computação sem pensar necessariamente nas implicações éticas da nossa profissão, às narrativas que ela trazia de pessoas de sua própria comunidade e convívio – vizinhos, pessoas no salão de beleza, amigos, etc. – aos quais ela se dirigia frequentemente para falar sobre problemas em reconhecimento facial e como isso poderia afetar aquela população, assim que ela soube o que significava não ser detectada em um sistema que estava programando.

Obviamente, é preciso ter coragem para enfrentar empresas e políticos com visões que podem diferir da sua em relação às desvantagens desses sistemas, mas pensa-se bastante em trazer as discussões para os níveis “mais altos” – fóruns, como Davos, o IGF, o CES, onde supostamente encontraríamos empresários mais poderosos discutindo com membros do governo, desenvolvedores, sociedade civil e entusiastas – e impedir que eles assinem ou promovam comportamentos digitais ou legais que nos tragam riscos diversos. Porém, são contados nos dedos os projetos a nível mundial dedicados a trazer esse conhecimento para a população em geral.

No Brasil, temos a campanha Tire Meu Rosto da Sua Mira, a qual divulgo sempre que existe a oportunidade. No entanto, ela se limita à esfera da segurança pública. Hoje, temos sistemas de RF sendo instalados em academias, condomínios, prédios públicos e privados sem uma apresentação ou noção certa do que está sendo utilizado para fazer esse reconhecimento. Qual o método? Como estão agrupando e categorizando as imagens? Onde elas são armazenadas? Estão garantindo que o sistema funcione adequadamente para todos os usuários, inclusive grupos que podem estatisticamente ter mais problemas com isso? Na maioria das vezes, tudo o que é ouvido é que se trata de um grande avanço tecnológico, que não deve ser parado porque “uma ou duas” pessoas não entendem. E as pessoas compram essa ideia.

Não foi o que aconteceu, por exemplo, com o caso do condomínio Atlantic Plaza Towers, citado no livro. Lá, os moradores se uniram e se opuseram à instalação de um sistema de reconhecimento facial, questionando sua necessidade e eficácia, bem como as implicações para a privacidade e a segurança dos dados. A resistência dos moradores levou a uma reavaliação do projeto e, finalmente, à sua suspensão. Este caso serve como um exemplo poderoso de como a conscientização e a ação coletiva podem desafiar a adoção acrítica de tecnologias de IA.

Infelizmente, casos como esse são a exceção, não a regra. A maioria das pessoas não está ciente dos riscos associados ao uso de sistemas de IA, ainda mais quando se trata de reconhecimento facial. A falta de transparência e de regulamentação adequada em torno desses sistemas só agrava o problema. É crucial que haja mais esforços para educar o público sobre essas questões e para pressionar por políticas que garantam a utilização ética e justa da IA.

É preciso uma cultura maior, não só no Brasil mas globalmente, de podermos contar com comunidades não necessariamente envolvidas com tecnologia para discutir assuntos de tecnologia, tendo parcerias com pessoas da área. É preciso que nós entremos mais nessa conversa, que nos entrosemos mais, porque é algo que faz parte do nosso dia-a-dia e não pensamos tanto, mas acaba afetando as vidas de várias pessoas fora da bolha de formas que mal imaginamos.

*Fairness: “equidade”, “justiça”; garantia de que os sistemas de inteligência artificial não perpetuem ou amplifiquem desigualdades existentes na sociedade. Isso significa que as decisões tomadas por esses sistemas devem ser imparciais e não discriminatórias, levando em consideração diferentes grupos e características individuais.

Gostou deste artigo?

Compartilhe no Facebook
Compartilhe no Twitter
Compartilhe no Linkedin
Compartilhe no Pinterest

sugestões de leitura

O Direito Fundamental à Proteção de Dados Pessoais à Luz da Jurisprudência do Supremo Tribunal Federal

A proteção de dados pessoais tem origem no direito à privacidade, tema especificamente debatido na obra The Right to Privacy por Samuel Warren e Louis Brandeis, publicado em 1890 pela revista Harvard Law Review, a qual começou a delinear tal direito a partir de uma percepção do “direito de estar sozinho” (WARREN; BRANDEIS, 1890, p. 195). Esse conceito de direito à privacidade foi positivado no artigo 12 da Declaração Universal dos Direitos Humanos de 1948, que consagrou o direito à vida privada. A Constituição Federal de 1988 (CF/88) também bebeu dessa fonte e reconheceu tal direito no seu art. 5º, X.