Reconhecimento facial e os riscos do racismo algorítmico

Reconhecimento facial e os riscos do racismo algorítmico

Olá, pessoal!

Sou o professor Allan Joos, defensor público e professor no Estratégia Carreira Jurídica e trouxe abaixo uma análise para reflexão sobre o tema: Reconhecimento facial e os riscos do racismo algorítmico.

Nos últimos dias, se propagou nas redes sociais e páginas de notícias a liberação de duas pessoas que foram presas indevidamente por um sistema de reconhecimento facial implantado no Estado do Rio de Janeiro. Dentre as páginas de notícia, destaca-se a CNN que publicou reportagem com o seguinte título: “dois dos quatro presos por reconhecimento facial no Rio de Janeiro são liberados”[1]

Essas duas prisões chamaram a atenção por terem resultado na apreensão de pessoas cujos mandados de prisão já haviam sido revogados há anos, porém sem atualização nos sistemas.

Tais fatos nos faz refletir sobre a eficiência dos sistemas de reconhecimento pessoal no âmbito criminal.

O primeiro dos problemas, que é o erro relativo à informação inserida nos sistemas, já é evidenciado logo no início do uso do reconhecimento facial na medida em que 2 das 4 primeiras prisões realizadas foram irregulares.

O segundo e talvez o mais grave, já que é de difícil correção, é o denominado racismo algorítmico, tema que, inclusive, já foi inserido no conteúdo programático de alguns concursos públicos, como o da Defensoria Pública do Estado de São Paulo.

O racismo algorítmico na criminologia refere-se à utilização de algoritmos em sistemas judiciais e policiais que resultam em tratamentos desiguais baseados em raça. Isso pode se manifestar em decisões de sentença, monitoramento preditivo e alocação de recursos. É um verdadeiro reflexo do racismo já existente nos algoritmos da tecnologia da informação.

O racismo algorítmico na criminologia intensifica a discriminação racial, aumentando o risco de prisões injustas e perpetuando a desconfiança nas instituições de justiça. Acentua as disparidades sociais já existentes.

Muitas são as causas desse “vício” nos sistemas informatizados. Dentre elas, podemos citar o treinamento dos sistemas com dados históricos enviesados, além da falta de uma avaliação crítica nas decisões algorítmicas, perpetuando estereótipos racistas que importam na identificação e prisão de pessoas por questões ligadas à aparência, raça e comportamento.

Se os dados históricos usados para treinar os algoritmos refletirem preconceitos existentes no sistema de justiça criminal, o algoritmo pode aprender e reproduzir esses vieses. Isso pode resultar em decisões mais severas ou em uma vigilância mais intensa para certos grupos étnicos.

O perfilamento racial impacta também na replicação de práticas racistas pelos algoritmos na medida em que a avaliação dos sistemas de vigilância, dentre eles os sistemas de reconhecimento facial, podem estar correlacionados com características raciais como cor, identificação de determinados grupos de determinadas regiões, como favelas ou comunidades, levando a um perfilamento social e racial onde grupos minoritários são mais propensos a serem classificados como de alto risco, recebendo tratamentos mais rigorosos.

Ainda, há os sistemas de vigilância preditiva, que buscam prever a ocorrência de crimes futuros, podem ser afetados por vieses raciais. Se os dados de treinamento indicarem uma maior incidência de crimes em áreas predominantemente habitadas por minorias, o algoritmo pode direcionar mais recursos de vigilância a essas comunidades, intensificando a presença policial e aumentando as chances de prisões.

Também as decisões judiciais podem ser viciadas, já que em sistemas onde algoritmos influenciam as decisões judiciais, como a fixação de penas, vieses podem se manifestar. Se o algoritmo considerar erroneamente certos comportamentos ou características como indicadores de maior periculosidade com base em estereótipos raciais, isso pode resultar em sentenças mais severas para grupos específicos.

Algo como a falta de diversidade nas equipes que desenvolvem esses sistemas também podem resultar em reconhecimentos enviesados, pois se as equipes responsáveis pelo desenvolvimento desses algoritmos não forem diversas, podem não considerar devidamente as diferentes perspectivas e experiências, aumentando o risco de incorporar vieses involuntários.

Na interseção entre tecnologia e criminologia, o racismo algorítmico emerge como uma faceta crítica, moldando não apenas sistemas de justiça, mas também as dinâmicas sociais.

Vários estudos mostram a necessidade de melhor reflexão sobre o uso de tecnologias para monitoramento. Neste ponto, inclusive, o Centro de Estudo de Segurança e Cidadania, CESeC, desenvolveu o projeto “Panóptico”, que é um projeto do Centro de Estudo de Segurança e Cidadania – CESeC – que monitora a adoção da tecnologia de reconhecimento facial pelas instituições de segurança pública do Brasil[2].

Este e diversos outros estudos apontam, em sua essência, que o reconhecimento facial possui erros operacionais e enviesamentos raciais e de gênero, reforçando o racismo algorítmico.

A conclusão a que podemos chegar a partir das notícias trazidas no início do texto e dos estudos criminológicos, inclusive pesquisas já relacionadas à temática, é que o uso dos algoritmos na segurança pública merecem atenção especial e precisam ser objeto de muitas reflexões, principalmente nas implicações discriminatórias, sem qualquer avaliação humana, que sistemas como o de reconhecimento facial podem gerar na sociedade.


[1] <https://www.cnnbrasil.com.br/nacional/dois-dos-quatro-presos-por-reconhecimento-facial-no-rio-de-janeiro-sao-liberados/ > acesso em 08/01/2024.

[2] ,https://www.opanoptico.com.br/#publicacoes> acesso em 08/01/2024.

Quer saber tudo sobre concursos previstos?
Confira nossos artigos!

Quer estudar para o concursos Jurídicos?

Gostou desta oportunidade e deseja se preparar para esse concurso? Então, confira nosso curso exclusivo e inicie seus estudos agora mesmo:

A Judicialização do Direito à Saúde

Assinatura Jurídica

Conheça os planos

0 Shares:
Você pode gostar também