Prüm II poderá integrar base de imagens de suspeitos de países da União Europeia e será acessado automaticamente, sem necessidade de solicitação de autoridades de outras nações
A União Europeia está aprimorando um banco de informações sobre suspeitos, integrado com as polícias de todos os países do bloco e que dispensará a solicitação entre autoridades para consulta. O Prüm II deverá ser uma versão mais sofisticada do Prüm, aprovado em 2005, e utilizará, além de digitais e DNA, também o reconhecimento facial.
A advogada e líder do núcleo de DPO do PG Advogados, Mariana Sbaite Gonçalves, afirma que o objetivo do Prüm II é facilitar a busca e captura de suspeitos de crimes, com o apoio da inteligência artificial. “O projeto está sendo criado na Europa, e terá uma base de dados unificada e pronta para pesquisas. A ideia é facilitar buscas e aumentar o nível de segurança”, destaca.
Contudo, a especialista alerta, que apesar de o projeto ter como objetivo o aumento da segurança, alguns pontos precisam ser analisados, já que os resultados não são 100% garantidos. “Ferramentas desse nível podem gerar falsas acusações e discriminações, bem como ações judiciais envolvendo danos morais. Um exemplo é o caso de Nijeer Parks, homem negro que passou 10 dias preso, incluindo uma semana em uma espécie de solitária, após ser confundido com um assaltante de loja de departamento”, exemplifica.
No caso citado, o algoritmo de Inteligência Artificial utilizado pela polícia de Nova Jersey, nos Estados Unidos, determinou que o homem foragido era Nijeer Parks, homem negro que foi capturado em janeiro de 2020. Contudo, ele não era o culpado e o erro só foi descoberto apenas a pós a sua prisão.
No Brasil, iniciativas que utilizam tecnologias para aprimorar a segurança estão sendo debatidas no âmbito legislativo. No dia 8 de abril foi instalada uma Comissão de Juristas para criar um marco regulatório para uso da Inteligência Artificial no País e serão recebidas sugestões sobre o tema até o dia 13 de maio.
Preço e discriminação
Para Mariana Sbaite Gonçalves, o Brasil enfrentaria dois grandes entraves para o uso de tecnologias semelhantes. “Pensando no cenário brasileiro, por exemplo, nos parece inviável, por ora, utilizar esse tipo de ferramenta pelo alto custo que envolve a Inteligência Artificial”, ressalta. O segundo problema é o racismo ainda existente no País, que acaba sendo replicado pela ferramenta.
Um estudo realizado pela Ação Educativa e a REDE Negra em Tecnologias e Sociedade, com o apoio da Fundação Mozilla, demonstrou que procedimentos algorítmicos de automatização e inteligência artificial podem promover a manutenção do racismo no Brasil, já que essas tecnologias não consideram a real complexidade social e suas variações e se baseiam em dados de larga escala.
“O ponto de atenção é que as ferramentas precisam fugir de estereótipos, ter neutralidade e conter informações que permitam diferenciar raças de todas as formas, considerando a diversidade existente no Brasil”, reforça a especialista.
Para Mariana Sbaite, “segurança, em sociedade, é essencial, todavia, é fundamental que seja feito um estudo aprofundado, considerando todas as variáveis possíveis, pois não se pode utilizar uma ferramenta que gere discriminação e ofenda os direitos fundamentais dos seres humanos em nenhum lugar do mundo”.
Fonte: Activa Comunicação