Você não está concorrendo ao prêmio de um milhão e meio de reais do Big Brother, contudo a sua vida poderá ser vigiada 24 horas por dia por câmeras em diversos pontos da sua cidade. Não haverá o glamour ou a recompensa financeira, mas talvez a sociedade venha a se tornar mais segura. Ou não. Sejamos bem-vindos à vigilância do amanhã.
Quando praticamos o árduo exercício de tentarmos olhar um pouco para frente, podemos perceber que um dos maiores desafios para o futuro parece ser o de entremear-se entre as possibilidades utópicas e distópicas que se apresentam. O uso da tecnologia para o bem comum pode ser interpretado eventualmente como uma verdadeira utopia, já que, normalmente, ela atende a interesses de pequenos grupos, embora, sejam rotineiramente disfarçados em uma roupagem generalista e de real utilidade.
O reconhecimento facial é uma dessas tecnologias. Seu principal objetivo é exercer uma maior vigilância dos cidadãos. Infelizmente, ela é uma das grandes violações de privacidade existentes, bem como pode ser um grande catalizador de preconceitos.
É importante destacar que as tecnologias de reconhecimento lançam mão de inteligência artificial e já são amplamente utilizadas por instituições bancárias em verificações de segurança, bem como são facilmente encontradas em inúmeros aplicativos de fotos e redes sociais. Não seria de se espantar, então, que estivessem presentes nos sistemas de segurança pública.
Em São Paulo, o Metrô já faz planos para implementar tal tecnologia em suas estações. A ideia é que criminosos possam ser rapidamente identificados e as autoridades acionadas para a realização da eventuais prisões. Como dito antes, é vendida a ideia de um pequeno incômodo – a perda da privacidade – por um bem maior – a melhoria da segurança pública. Por ora, a questão se encontra suspensa por determinação da justiça. Segundo a decisão liminar, a proposta do Metrô tem potencial de violar direitos fundamentais dos cidadãos. Então, cabe o questionamento: será que essa tecnologia gera apenas um transtorno ou traz à tona uma questão mais ampla?
Para que não fiquemos apenas no campo das difamações ou proposições infundadas, tomemos como exemplo as dificuldades que algumas pessoas negras têm ao usar os recursos biométricos de reconhecimento facial nos celulares, tanto para o seu desbloqueio, como no uso em aplicativos bancários, entre outros. São inúmeros os casos denunciados de falhas na captura da imagem por seus dispositivos. Em muitas situações, os sensores sequer detectam a presença dos indivíduos, como se eles não existissem. O xis da questão, logo, é o fato de os algoritmos empregados por esse ferramental mostrarem-se ineficientes.
Isso demonstra, sem dúvida, uma ausência de interesse por parte de empresas e governos em investir numa calibragem adequada para a tecnologia. Logo, isso naturalmente levanta preocupações sérias quanto ao seu uso. E se a tecnologia for preconceituosa e denunciar falsamente as pessoas? Se ela não funcionar corretamente, quem será o mais prejudicado?
Felizmente, há também o outro lado. O Google, por sua vez, está trabalhando em uma nova paleta de tons de pele para substituir a atual escala Fitzpatrick, amplamente usada por sistemas tecnológicos. Segundo a gigante da tecnologia, a nova escala intitulada Monk, em homenagem à sua autora Ellis Monk, socióloga da Universidade de Harvard, poderá trazer muitas melhorias aos sistemas de reconhecimento facial, sensores de frequência cardíaca e outras tecnologias que necessitam de uma precisão maior na detecção da tonalidade da pele. Com isso, daríamos mais um passo pelo fim da desumanização que muitos sentem ao não serem detectados corretamente por câmeras e afins.
Há quem eventualmente possa dizer que eu não tenho lugar de fala para mencionar essas questões, no entanto, como alguém que passou toda sua infância em comunidades carentes, posso dizer que sofri também na pele com abordagens truculentas, violações de direitos básicos e outras situações desumanas oriundas daqueles que deveriam nos prover a segurança. Então, penso que mesmo hoje sendo corretamente detectado – na maioria das vezes – pelos sistemas biométricos, isso não invalida a proposição.
Voltando a falar da segurança, sentir-se seguro é um dos pilares de uma sociedade digna, é claro. Porém o que não pode ocorrer é uma vigilância ostensiva sob o cidadão comum, muito menos com um viés de preconceito. O cerceamento da liberdade não deveria ser o resultado das políticas públicas de segurança. Esse, por sua vez, deveria ser bem mais auspicioso a todos nós.
No futuro, talvez não importe tanto se o que validará a sua identidade será uma digital, um reconhecimento facial ou um simples documento de papel. O que mais deveremos levar em conta, acima de qualquer outra coisa e além da identidade, é a manutenção da dignidade e integridade de todos nós como indivíduos, mesmo que não estejamos em nenhuma paleta de cor conhecida ou flagrados em um circuito interno qualquer.