MURAL DE NOTÍCIAS

Com mais de mil prisões na BA, sistema de reconhecimento facial é criticado por ‘racismo algorítmico’; inocente ficou preso por 26 dias

A ferramenta de reconhecimento facial, que já prendeu 1.011 pessoas na Bahia, levou vários inocentes à cadeia desde a implementação, em 2018. Especialistas dizem que o sistema, que tem investimento de R$ 665 milhões do estado, usa catálogos informais e é fundamentado no “racismo algorítmico”.

Na segunda quinzena de agosto, a Secretaria de Segurança Pública da Bahia (SSP-BA) divulgou o balanço dos mais de mil detidos. A justificativa do estado é de que as pessoas encontradas pelo sistema estão inseridas no banco de mandados de prisão.

No entanto, pesquisadores apontam que, mesmo inserido no banco de mandados de prisão, não há garantia legal de que o suspeito tenha cometido o crime ao qual responde, o que fere a chamada presunção da inocência – popularmente conhecida pelo jargão: “todos são inocentes, até que se prove o contrário”.

Um desses casos ocorreu durante a festa junina de 2022, em Salvador. Um homem negro foi preso enquanto chegava no Parque de Exposições da capital com a esposa e o filho, para aproveitar o evento. Ele, que é vigilante, foi detido e ficou preso por 26 dias, por roubo, injustamente.

O crime que levou o trabalhador à prisão foi cometido em 2012, por outra pessoa. O verdadeiro criminoso foi preso em flagrante e usou o nome do vigilante e as próprias digitais para se identificar. Este homem foi solto em 2013, e depois condenado a cinco anos e quatro meses de prisão.

Com isso, um mandado de prisão foi inserido no sistema, com o nome do trabalhador. Na época em que o vigilante foi preso, a SSP-BA disse que as câmeras constataram 95% de similaridade entre ele e a pessoa que deveria ser presa.

A secretaria nunca explicou como a imagem dele foi parar no banco de dados do reconhecimento facial, já que o vigilante nunca havia cometido um crime. O g1 pediu informações à SSP-BA, para explicar como é formado o banco de suspeitos do reconhecimento facial, mas não obteve respostas.

O vigilante foi preso na frente do filho e da esposa. A Defensoria Pública da Bahia (DPE-BA), que atuou no caso, destacou a falta de identificação pessoal do homem preso em 2012, o que gerou a prisão injusta por meio do reconhecimento facial, e a violação dos direitos do trabalhador.

A DPE-BA também precisou solicitar perícia das digitais do homem preso em 2012 e a do trabalhador, para provar que não se tratava da mesma pessoa. Além do constrangimento pela prisão injusta, o vigilante perdeu o emprego: ele começaria a trabalhar em uma nova empresa três dias após a prisão.

Mesmo solto por não ter cometido o crime, a prisão do vigilante é computada pela Secretaria de Segurança Pública da Bahia (SSP-BA).

Após passar a marca de mil prisões com auxílio da ferramenta, o secretário de SSP-BA, Marcelo Werner, disse que a Bahia é “referência mundial no uso deste equipamento”.

Negros são mais afetados pelos erros

Para além da violação do princípio jurídico, a advogada, mestra em Direito e doutoranda em Filosofia, Ana Gabriela Ferreira, que é pesquisadora do assunto, aponta também o fator raça como determinante para o desrespeito aos direitos constitucionais.

“São inúmeras violações, a começar pelo tratamento desigual em razão de raça, gênero e etnia. O efeito sobre a vida de uma pessoa presa injustamente é devastador. Após ser preso, fica estigmatizado por toda a vida, dos seus círculos íntimos aos de trabalho e sociais”.

“Imagine num estado como a Bahia, em que 80,3% da população é negra, a proporção de ‘matches’ [combinações] errados e o impacto sobre as famílias em geral?”, questiona.

De acordo com a pesquisadora, o primeiro ponto a ser questionado é a falta de clareza sobre a base de dados usada para compor a ferramenta de reconhecimento facial.

A advogada destaca que o reconhecimento facial fotográfico ou biométrico – quando os pontos nodais do rosto são analisados, a exemplo de distância das sobrancelhas – é feito a partir de uma base de perfis de pessoas majoritariamente negras, mesmo que estas pessoas nunca tivessem cometido qualquer crime.

“Na instalação de sistemas de reconhecimento biométrico na Bahia foram utilizados critérios como “estilo de cabelo” e “estilo inferior”. No caso do reconhecimento biométrico, há ainda um agravante: as pessoas que não conhecem o funcionamento do reconhecimento presumem que ele é um “match matemático perfeito”.

“Na verdade, estudos sobre as três maiores tecnologias de reconhecimento utilizadas no mundo mostram que o índice de erro chega a quase 40% para mulheres negras e pessoas trans. Enquanto isso, para homens brancos, o índice de erro seria de 0,3%”.

Racismo algorítmico

A descrição feita por Ana Gabriela Ferreira faz parte do conceito de racismo algorítmico. No livro “Racismo Algorítmico: inteligência artificial e discriminação nas redes digitais”, o pesquisador baiano, mestre em Comunicação e doutorando em Ciências Humanas e Sociais, Tarcízio Silva, escreveu:

“Se a tecnologia é erroneamente enquadrada e percebida como neutra, a tal equívoco se soma a negação do racismo como fundante de relações e hierarquias sociais em países como o Brasil”.

Outra questão criticada pelo especialistas é a falta de transparência sobre a quantidade de pessoas que foram presas injustamente. O g1 perguntou à SSP-BA o número de pessoas que foram “reconhecidas” pelo sistema e depois liberadas por não serem os suspeitos, mas não obteve resposta.

“O número de casos errados é gritante. Um exemplo de outro estado parecido mostra bem: o Maracanã utilizou câmeras de reconhecimento facial como teste. Prendeu 11 pessoas, sete delas erradas. É uma margem de quase 70% de erros”, questiona a advogada e pesquisadora Ana Gabriela Ferreira.

A advogada destaca ainda que uma cidade como Salvador, que é a capital brasileira com a maior população negra, pode ter um percentual de erro ainda maior, e acentua que a falta de transparência e divulgação destes números.

“Salvador, capital mais negra do mundo fora de África, tem chances altíssimas de multiplicar erros e não teve uma diminuição da violência com o uso dos sistemas, ao contrário, chegou a ter aumento. A avaliação é simples: os erros não são divulgados porque tornariam ainda mais evidente a grande falha que é este projeto, notoriamente racista e dispendioso, que vem sendo banido em diversos países, mas o governo insiste em aplicar no estado”.

O alto valor injetado como investimento para manutenção da ferramenta de reconhecimento facial também é criticado pelos especialistas.

“Se de 2018 a 2023, investidos quase R$ 700 milhões e tendo mais de 65 mil registros biométricos, ocorreram mil prisões, esse sistema seria realmente um investimento prioritário? Há cidades sem saneamento básico, mas com sistema milionário de reconhecimento”, finaliza Ana Gabriela.

(G1)

Compartilhar

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *