“As tecnologias de acesso a dados têm um potencial de lesão ao direito fundamental que pode colocar em questão os direitos dos titulares dos dados antes mesmo que eles sejam considerados suspeitos. Uma antecipação da atuação do poder punitivo”. A frase da defensora pública Ana Lúcia Ferreira ressalta a importância de um cuidado especial com as novas tecnologias no direito penal e foi parte importante do terceiro encontro do Ciclo de Palestras sobre a Lei Geral de Proteção de Dados (LGPD) promovido pela Defensoria Pública do Rio de Janeiro (DPRJ) nesta sexta-feira (25).
 
O encontro desta semana teve como tema a proteção de dados e o sistema penal e contou com a participação do cientista político e coordenador adjunto do Centro de Estudos de Segurança e Cidadania (CESeC), Pablo Nunes; da subcoordenadora de Defesa Criminal, Isabel Schprejer; além da defensora pública Ana Lúcia Ferreira. A mediação ficou a cargo da encarregada de Proteção de Dados Marina Lowenkron.
 
Isabel Schprejer pontua que no Brasil as reflexões sobre a tecnologia e o reconhecimento facial no direito penal ainda estão no início em comparação com outros países. 

- A gente está praticamente começando a falar disso agora e nós, na defesa criminal, na Defensoria Pública e advogados criminalistas ainda estamos lidando com questões bastante analógicas, lutando contra o reconhecimento fotográfico legal, feito em delegacias de polícia e gerando muitos erros humanos, falsas memórias e sugestionamentos. Estamos empreendendo esforços para regulamentar álbuns de suspeitos em delegacias e tudo isso parece muito analógico  em comparação com esses novos debates - afirmou.

Para Ana Lúcia Ferreira, no caso da proteção de dados, a informação tem um poder ainda maior.

- O direito fundamental a proteção de dados não é a mesma coisa que o direito à privacidade. Ele tem uma perspectiva e uma concepção mais amplas, ligadas à autodeterminação informativa que é o direito que você tem de não viver em uma ordem social em que você não consegue saber quem sabe o que sobre você e em que circunstâncias - afirmou Ana Lúcia. 
 
Segundo o cientista político Pablo Nunes, existem diversas falhas no sistema de reconhecimento facial, já admitidas por outros países que experimentaram a ferramenta anteriormente, provocando prisões equivocadas que mostram o viés  racial dessa tecnologia. 

- Há um potencial violador muito grande, pois esses sistemas já são reconhecidamente enviesados no que se refere a pele e faces negras. Eles têm muita dificuldade em entender uma face negra como humana e isso já está amplamente documentado. Esse nível de erros, aliado a uma velocidade muito grande de reconhecimentos por minuto, coloca a possibilidade de um número muito maior de violações serem cometidas - afirmou. - O que a gente quer enquanto sociedade da segurança pública? Eu acho que o que queremos é que tenhamos uma construção de sociedade mais justa, mais segura, com redução de criminalidade e com aumento da sensação de segurança, mas quando a gente utiliza os dados para avaliar o impacto do reconhecimento facial nos índices criminais a gente verifica não há uma redução significativa para a gente dizer que  o reconhecimento facial tem dado frutos e avançado na construção de uma sociedade mais segura e mais justa. Hoje ele implica no encarceramento de mais pessoas - pontuou Pablo Nunes. 
 
Para a encarregada de Proteção de Dados da DPRJ, Marina Lowenkron, os erros de reconhecimento facial estão ligados aos já conhecidos em relação ao reconhecimento fotográfico. 

- Os  algoritmos usados estão reproduzindo os vieses inconscientes que levam os sujeitos a errarem nos outros tipos de reconhecimento. A gente trocou o racismo estrutural, que era operado pelos sujeitos, para um racismo transposto para a máquina através do mecanismo que nós alimentamos essa inteligência artificial - concluiu. 

 

Texto: Igor Santana.
 
O evento completo está disponível aqui.



VOLTAR