Muralha ou cercadinho?
O uso de inteligência artificial nas políticas de Segurança Pública
✅ Receba as notícias do Brasil 247 e da TV 247 no canal do Brasil 247 e na comunidade 247 no WhatsApp.
Por Clóvis Girardi e Gabriel de Moraes*
Como diria Jorge Ben Jor: “deu no New York Times” - prefeito de Santo André termina a instalação de 25 câmeras de monitoramento na cidade. Só que esqueceram de te dizer que a dita “Muralha de Segurança Inteligente” tem uma série de problemas e que pode estar mais pra um “cercadinho” quando falamos em segurança digital.
Com um sistema de inteligência artificial do Detecta, desenvolvido em parceria com a Microsoft com o objetivo primário voltado ao monitoramento de veículos, o prefeito Paulo Serra pretende “utilizar esta tecnologia de reconhecimento facial na identificação de pessoas foragidas”. Contudo, é imprescindível lembrar que a utilização de inteligência artificial para identificação de pessoas têm causado problemas ao redor do mundo, levando, inclusive, à prisão injusta de pessoas.
Um exemplo desse fato é a linha do tempo do racismo algorítmico montada por Tarcízio Silva, mestre e pesquisador das controvérsias da inteligência artificial. Nela, o pesquisador demonstra diversos casos onde os algoritmos e as inteligências artificiais possuíram um viés racista ao longo dos anos, inclusive no caso de sistemas montados pela própria Microsoft.
Mas porque isso ocorre? Para entender esse viés racista, primeiro é preciso entender o funcionamento de uma inteligência artificial. Segundo Matteo Pasquinelli, pesquisador alemão do assunto, as inteligências artificiais dependem de um conjunto de dados de treinamento, e se esse conjunto de dados têm um histórico racista, a inteligência artificial carregará essa discriminação na aplicação dos seus modelos estatísticos.
Assim, com a implantação de câmeras de vigilância na cidade, podemos ter um aumento da exclusão social, criando um cenário no qual o olhar das câmeras se direciona com mais frequência para aquelas pessoas que fogem do que se entende como ‘normal’ - fazendo com que apenas uma parte da sociedade se sinta confortável em estar sendo vigiada, e que os grupos marginalizados sejam ainda mais perseguidos.
Além disso, há o problema da ‘caixa preta’. Segundo Pasquinelli, as técnicas atuais de aprendizado de máquina ainda estão em experimentação, “no mesmo estágio em que estava o motor a vapor quando foi inventado, antes que as leis da termodinâmica necessárias para explicar e controlar seu funcionamento interno fossem descobertas”. Portanto, observa-se que os dados estão sendo tratados por um mecanismo que possui pouca transparência e explicabilidade: uma verdadeira “black box”. É nesse aspecto que a ‘Muralha’ pode se tornar um ‘cercadinho’: se não temos segurança e transparência na coleta, tratamento e utilização dos dados, como a política de segurança pública pode ser realmente efetiva? Qual será o papel das ‘big techs’ na governança pública? Quem realmente controla o algoritmo?
O papel das grandes empresas de tecnologia e as possibilidades de regulação e definição dos limites e potencialidades do uso de seus produtos tem gerado discussões ainda muito voltadas às redes sociais e ‘fake news’, eminentemente fundamentais haja vista o impacto histórico que tiveram e têm na política nacional e internacional. Agora, o uso de inteligência artificial aplicado à gestão pública deve, também, ganhar força.
Nesse contexto, é fundamental repensar as abordagens de segurança pública levando em consideração não apenas a eficiência tecnológica, mas também a inclusão social e o respeito aos direitos humanos. Não estamos, aqui, defendendo a proibição do uso de inteligência artificial nas políticas de segurança, mas propondo uma reflexão crítica sobre os riscos e impactos potenciais e a necessidade de criação de um arcabouço institucional com mecanismos de controle e salvaguardas adequados para proteger a privacidade e os princípios da isonomia na Administração Pública para que nossas ‘muralhas’ não sejam ‘cercadinhos’ e, de fato, potencializem ações para tornar territórios mais seguros.
Diferente do que tentam vender empresas (e governos), as cidades dificilmente ficarão mais seguras apenas com o uso de tecnologias de vigilância e controle, mas sim por meio de um esforço conjunto que abrange medidas socioeconômicas, urbanísticas e culturais. É preciso construir uma cidade segura para todos, onde os direitos individuais e coletivos sejam respeitados, a inclusão seja promovida e as desigualdades sejam enfrentadas de forma efetiva.
*Clóvis Girardi é Bacharel em Ciências e Humanidades e em Planejamento Territorial e mestrando em Planejamento e Gestão do Território pela Universidade Federal do ABC.
*Gabriel de Moraes é graduando do curso de Políticas Públicas da Universidade Federal do ABC, e pesquisa as relações das Big Techs com o Estado brasileiro.
FONTES:
SILVA, Tarcízio. Linha do Tempo do Racismo Algorítmico. Blog do Tarcizio Silva, 2022. Disponível em: <https://tarciziosilva.com.br/blog/posts/racismo-algoritmico-linha-do-tempo>. Acesso em: 20 mai 2023
SCHIAVI, Iara. As Tendências Neoliberais e Dataficadas da Incorporação Tecnológica nas Cidades. In: CASSINO, João Francisco; SOUZA, Joyce; SILVEIRA, Sérgio Amadeu da (org.). Colonialismo de Dados: como opera a trincheira algorítmica na guerra neoliberal. 1. ed. São Paulo, SP: Autonomia Literária, 2021. p.148-166.
https://exame.com/tecnologia/executivos-da-microsoft-explicam-o-sistema-de-big-data-que-ajudara-a-policia-de-sp/
https://www.terra.com.br/byte/homem-negro-e-preso-por-erro-em-tecnologia-de-reconhecimento-facial,6ab3897c31dae02a06a9df0c2551d18884wa4f7q.html
Assine o 247, apoie por Pix, inscreva-se na TV 247, no canal Cortes 247 e assista:
Este artigo não representa a opinião do Brasil 247 e é de responsabilidade do colunista.
Comentários
Os comentários aqui postados expressam a opinião dos seus autores, responsáveis por seu teor, e não do 247