Ir para conteúdo

RECONHECIMENTO FACIAL: A NOVA POLÍTICA DE CONTROLE DE CORPOS NEGROS


Por Fransérgio Goulart e Giselle Florentino

De uns anos para cá, governadores, prefeitos e secretários de segurança pública verbalizaram que as novas tecnologias de monitoramento e de vigilância, com câmeras e softwares de reconhecimento facial são a solução para várias questões de segurança pública.

Na Baixada Fluminense não é diferente, no dia 27 de fevereiro de 2021, o prefeito de Duque de Caxias , Washington Reis assinou um convênio entre o Governo do Estado e o Consórcio Integrado de Segurança Pública da Baixada Fluminense¹ para implantação do Centro Integrado de Comando e Controle.

Créditos: Adobe Stock

O recurso de 15 milhões de reais vem da Alerj, o que ratifica que os executivos municipais, estadual e o legislativo estão muito bem alinhados nessa construção que em nossa avaliação trata-se de uma nova ferramenta de controle de corpos negros e periféricos.

Só que mais uma vez o Brasil, parece ir na contramão do mundo. O assassinato do americano George Floyd nos EUA pela polícia fomentou levantes antirracistas nos EUA e no mundo. Nesse contexto, a tecnologia de reconhecimento facial nasceu com a promessa de tornar as cidades mais seguras (seguras para quem?)passou a ser amplamente contestada, pois além de acabar com a privacidade das pessoas, potencializa o racismo institucional.

Em estudos recentes do MIT (Instituto de Tecnologia de Massachusetts) mostraram que negros estão mais expostos a erros cometidos por esses softwares, potencializando o risco de serem submetidos a violência policial e ao encarceramento devido a leituras equivocadas realizadas pela câmeras de vigilância.

Lembremos que os algoritmos são manuseados por pessoas que são racistas e machistas, logo comprovaram que rostos mais escuros são pouco representados nos conjuntos de dados usados para “domesticar” os equipamentos. Esse estudo mostrou que os algoritmos falharam na aferição de 34,7% de pessoas negras e apenas 1% de brancas.

O próprio capitalismo que vislumbra nessas tecnologias mais um mercado de acumulação se colocou em dúvida a respeito do uso dessas tecnologias e gigantes como a IBM que foi a primeira a se colocar que não vai mais desenvolver ferramentas de vigilância em massa em contextos que violem os direitos e liberdades humanas.

Logo após a Amazon proibiu a polícia de usar sua ferramenta de reconhecimento chamada Rekogntion. E por fim a gigante Microsoft se uniu a essas empresas e limitou o acesso a essas ferramentas. Aqui vale destacar que essas empresas lutam para terem uma regulamentação (Lei) que possa apresentar ferramentas de controle por parte da sociedade e não para por fim a essas tecnologias, até mesmo porque o capitalismo da morte precisa continuar acumulando e mantendo hegemonias de determinadas frações de  classes. Algoritmos são construídos a partir de bancos de dados e por isso ele representa o racismo histórico construído contra pessoas negras, indígenas e periféricas no caso Brasil.

“O racismo algoritmo ocorre quando sistemas matemáticos ou de inteligência artificial são pautados por informações enviesadas/tortas que alimentam e regem seu funcionamento. As consequências são muitas, mas talvez a maior delas seja o aumento de desigualdades, sobretudo em um momento onde estamos cada vez mais tendo muitos dos nossos gostos e políticas mediadas por máquinas, com o avanço da tecnologia”.

(SIL BAHIA, Pesquisadora do Grupo de Pesquisa em Políticas e Economia da Informação e da Comunicação do Programa de Pós-Graduação em Comunicação da UFRJ e diretora do OLABI). 

O Governador Cláudio Castro optou por destinar R$ 73 milhões do orçamento público do Estado para a implementação de um programa de Sistema de Videomonitoramento e Reconhecimento Facial através da operacionalização do Centro Integrado de Comando e Controle (CICC). Segundo as experiências ocorridas na Europa, esse modelo de vigilância possui resultados e eficiência limitada, levando a profundas imprecisões, equívocos e propagação de machismo e racismo. Além de inverter completamente o princípio da presunção de inocência! 

A Secretaria Estadual da Segurança Pública (SSP), que utilizou o sistema de câmeras inteligentes da Microsoft, que integra câmeras a bancos de dados durante 2 anos, custou cerca de R$ 33 milhões de reais aos cofres públicos e ainda não é capaz de analisar crimes filmados.

Segundo uma pesquisa científica baseada na análise do erro da Microsoft, realizada pela pesquisadora Joy Buolamwini do MIT, demonstrou que 93,6% das imagens tiveram o gênero analisado de forma equivocada, em sua maioria eram de rostos negros, em que mulheres negras estão mais suscetíveis a falsos positivos. Portanto, a Tecnologia e Inovação também podem reproduzir violações, abusos e ameaças aos direitos humanos historicamente conquistados pela classe trabalhadora. 

Os gastos públicos nesse tipo de programa apenas oneram ainda mais o orçamento fiscal do Estado, reproduz racismo e não resulta em políticas públicas eficientes para o combate à violência urbana. O Governo Cláudio Castro colocou como prioridade no orçamento público a manutenção do Programa Segurança Presente, a Descentralização das Unidades de Atendimento – DEGASE, a construção de um Presídio Vertical e o videomonitoramento e o reconhecimento facial.  

Ademais, a verba pública do Estado do Rio de Janeiro direcionada para ações de inteligência e monitoramento aumentou 137% em relação ao orçamento de 2020. Apenas evidencia o equívoco de uma narrativa de segurança pública que utiliza reconhecimento facial e algoritmos para encarcerar e criminalizar pessoas negras, dada a programação desses instrumentos já foi amplamente consolidada como racistas e xenófobas. 

O Estado rapidamente ressignificou as demandas dos ditos especialistas em segurança pública e investiu pesado na tecnologia de informações e sistemas tecnológicos que nem de longe tocam na estrutura dorsal da violência urbana. 

Sabemos que até parte de um campo político que se coloca como progressista irá defender não o fim, mas a regulamentação dessa ferramenta através de protocolos de segurança e fiscalização. Mas, acreditamos precisamos produzir são espaços de construção de outras sociabilidades que tenham como princípio lógicas não punitivistas e de controle.

Estamos entrando com uma representação no Ministério Público Federal de São João do Meriti apontando inconstitucionalidade com relação ao direito de privacidade que esse processo de vigilância pode vir a acarretar.


¹ Mais informações: https://odia.ig.com.br/rio-de-janeiro/2021/02/6094220-baixada-fluminense-vai-ganhar-centro-integrado-de-comando-e-controle.html

Deixe uma resposta

%d blogueiros gostam disto: