O emprego de tecnologias de monitoramento e de vigilância, como câmeras e softwares de reconhecimento facial tem sido mais uma das grandes promessas em matéria de segurança pública.
A adoção desse tipo de tecnologia, no entanto, tem se mostrado prejudicial a grupos minorizados, notadamente pelo fato de o Brasil ser um país marcado por desigualdades raciais, étnicas e de gênero. No estado do Rio de Janeiro, por exemplo, 80% dos erros no processo de identificação e prisão de suspeitos através do uso de mecanismos de reconhecimento facial recaiu sobre pessoas negras.
A utilização desse tipo de ferramenta de vigilância pode ainda ser instrumentalizada como mecanismo de controle violento, empregando hiper vigilância e seletividade penal sobre determinadas regiões e grupos sociais. Nesse sentido, Bolzan de Morais e Barros alertam que “o novo Estado de vigilância e tratamento de dados em escala cria inúmeras possibilidades, mas também muitos riscos às bases do Estado de Direito, em especial aos direitos fundamentais”.
Seguiremos acompanhando!
FONTES: https://diplomatique.org.br/favelas-precisam-de-justica-racial-nao-de-reconhecimento-facial/
BOLZAN DE MORAIS, J. L.; BARROS, F. M. Compartilhamento de dados e devido processo: como o uso de inteligência artificial pode implicar em uma verdade aleteica. In: NUNES, D., LUCON, P. H. S. L.; WOLKART, E. N. (org.). Inteligência Artificial e Direito Processual: os impactos da virada tecnológica no direito processual. 2. ed. Salvador: JusPodivm, 2021. p. 343-368.
Comentarios