Vigilância artificial em São Paulo: o que isso pode significar

Smart Sampa é projeto da Prefeitura de São Paulo que quer reconhecimento facial e monitorar cor dos cidadãos

A cidade de São Paulo planeja contratar sistemas de vigilância inteligente para reconhecer “criminosos e vadiagem”. É, “vadiagem” mesmo! Seriam mais de 20 mil câmeras para esse monitoramento, além de integrar outras tantas câmeras e bases de dados já construídas por órgãos municipais. Hoje essas câmeras, sistemas e bases de dados não estão integrados. Ao integrá-los, a capital paulista quer criar um “Smart Sampa”, como é chamado o projeto.

Segue, como falamos aqui na Bahia, o gueri oficial:

A Smart Sampa tem previsão de integrar mais de 20 mil câmeras até 2024 e busca a modernização e ampliação no monitoramento de câmeras na Capital, agregando o conceito de Cidades Inteligentes. A iniciativa permitirá maior eficácia e agilidade no atendimento de ocorrências da Guarda Civil Metropolitana e demais órgãos de segurança.
A Smart Sampa possibilitará um monitoramento mais inteligente e especializado graças ao uso de analíticos, permitindo que os órgãos de segurança possam promover a filtragem instantânea de imagens de ocorrências. Com recursos de identificação facial e detecção de movimento, as câmeras reconhecerão atitudes suspeitas, pessoas procuradas, placas de veículos e objetos perdidos.

A nova plataforma ainda facilita a integração de diversos serviços municipais, como CET, SAMU, Defesa Civil e GCM, em uma única plataforma por meio da criação de uma moderna Central de Monitoramento Integrada.
Além disso, com as novas câmeras, os órgãos de segurança terão como monitorar escolas, UBS e demais equipamentos públicos, aumentando significativamente a segurança nesses locais. As câmeras técnicas contarão ainda com monitoramento de calor, facilitando a supervisão em praças e parques, que normalmente possuem árvores e áreas verdes que podem prejudicar uma vigilância mais precisa.

Em resumo, ele é baseado em três pontos:

  • Reconhecimento facial;
  • Monitoramento das mídias digitais;
  • E detecção da cor da pele dos indivíduos monitorados.

O quão isso pode ser errado, né? Tudo!

Reconhecimento facial por inteligências artificiais (IAs) são problemáticas. Elas (ainda) têm uma porcentagem de erro muito grande, os chamados falso positivos, que podem taguear alguém como “suspeito” sem, necessariamente, sê-lo. Algo mais ou menos parecido com que vive a imensa maior da população afro-brasileira ao adentrar em um espaços da minoria branca rica. Além disso, geralmente, essas tecnologias podem reforçar esses vieses e preconceitos por empresas, governos, programadores e bases de dados (sim, bases de dados também têm vieses). De modo geral, esse tipo de automatização pode reforçar “pressões” do estado sobre indivíduos e populações já marginalizadas.

Monitorar atividades nas redes sociais, contudo, já é algo feito por grupos de inteligências em diversos órgãos públicos dentro e fora do Brasil. Aferir o “sentimento” das redes é comum para detectar engajamentos e movimentos sociais. Podemos forçar um pouco e dizer que é “normal”. Contudo, não é difícil imaginar que cruzar esses dados com outras dados governamentais em busca de “vadiagem” ou “insurreições de movimentos sociais” possa gerar diversos questionamentos sobre predições (análises dos dados tendo em vista ações futuras) que podem emergir. Ao que parece, a ideia do Minority Report nunca sai da cabeça dos governantes.

Mas há quem já se adiantou.

A China faz isso já há alguns anos: se você vai para a praça protestar, coloca sua manifestação nas redes e é “pego” por uma câmera inteligente, é bem provável que seu score social (um tipo de score do Serasa deles, só que bem mais restritivo) vai baixar e, em alguns casos, você não pode nem mais sair de sua cidade por causa disso. É um tipo bem punitivo de vigilância estatal. Um tipo de panóptico inteligente. O Big Brother vive.

Em minha dissertação de mestrado, traço um pouco o panorama dos Centros de Comando e Controle Urbanos criados para a Copa do Mundo de 2014 que pretendiam se transformar em “panópticos governamentais” sobre as cidades-sede da competição. Em alguma medida, conseguiram. Mas seu controle estava mais para o ambiente urbano, trânsito, coordenação de forças de segurança pública, serviços públicos etc. Não tratavam de “vadiagem”. Pelo menos não à época.

No Smart Sampa o principal dedo na ferida vem ao reboque do reconhecimento facial, identificar a cor da pele das pessoas.

Mas, heim? Você pergunta. Apois! respondo.

Isso é ilegal? É. É descriminação do indivíduo por sua cor de pele. Mais uma vez, não é difícil imaginar que um indivíduo seja monitorado em vias públicas ou seja abordado apenas por sua “cor suspeita”. Isso é uma violação do direito básico de existência do indivíduo. É uma afronta à Constituição Federal.

Além de tudo isso, há outra questão que é preciso levar em consideração: os dados. Dados de reconhecimento, mídias sociais (que a maioria das pessoas publica livremente) e, por incrível de pareça, detecção de cor são pessoais – óbvio! A má gestão desses dados pode causar prejuízo aos indivíduos e comunidades e comprometer sua privacidade e segurança. Óbvio!

Enquanto tecnologia, as inteligências artificiais (IAs) não só más por si. Mas podem ser apropriadas, utilizadas de maneira errônea, equivocada ou com má intenção. Este projeto Smart Sampa parece ser uma junção dessas matrizes. Já é um projeto que nasce burro, é um “Dumb (burro) Sampa”.

Enquanto sociedade, temos que usar as tecnologias em ambientes e serviços públicos com muito cuidado. Discussões e aparagens de arestas são necessárias para prover a melhor utilização dessas tecnologias ao ambiente social ao, por exemplo, tentar mitigar seus vieses. Algumas simplesmente não são convenientes, como o reconhecimento facial automatizado por IAs.

E ponto.

Você pode ver a documentação do projeto clicando aqui. https://participemais.prefeitura.sp.gov.br/legislation/processes/209