[NEWS] Reconhecimento Facial aplicado ao contexto de guerra
Não é novidade que as tecnologias de reconhecimento facial podem ser aplicadas a diversos contextos e mercados. Também já sabemos que os softwares podem ser incorporados por órgãos públicos no setor de segurança para rastrear criminosos foragidos. No entanto, mais recentemente, vimos também um caso extremamente relevante do Reconhecimento Facial aplicado ao contexto de guerra, mais especificamente na Ucrânia. Nesse cenário, é preciso discutir qual é o real potencial de atuação dessa tecnologia em meio a um ambiente tão tumultuado.
Desde que a Guerra da Ucrânia eclodiu, em 24 de fevereiro deste ano, vimos que muitas tecnologias e ferramentas bélicas passaram a ser inseridas no confronto, tanto pelo lado do agressor quanto pelo lado dos agredidos. Criado sem um propósito combativo, mas com inúmeras aplicações, o reconhecimento facial foi uma das tecnologias adotadas no confronto. O Ministério da Defesa Ucraniano informou que estaria utilizando os sistemas da empresa americana Clearview com o intuito de identificar corpos de soldados russos mortos em combate e criminosos de guerra.
Logo de cara, é possível perceber que nenhuma dessas funções tem caráter bélico. Na verdade, a identificação dos soldados russos que vieram a falecer durante a guerra tem como único fim combater o processo de difusão de informações falsas pelo governo Russo, alertando as famílias sobre os óbitos dos estrangeiros. Já a identificação dos criminosos, é uma forma de garantir que os culpados não saiam impunes dos terríveis atos que cometeram nesse período.
Apesar dessa proposta ter um grande potencial, é preciso entender também que ela traz consigo possibilidades de consequências negativas. Antes de mais nada, é válido explicar de maneira breve como funciona o processo de desenvolvimento do reconhecimento facial utilizando deep learning.
Por meio de um banco de imagens com um vasto acervo de faces, fornecido pelos seus desenvolvedores, os softwares de reconhecimento facial passam pelo processo de machine learning, realmente o aprendizado da máquina, no qual eles aprendem a analisar as faces e a encontrar as diferenças entre cada uma delas. Com esta etapa concluída, os sistemas ainda precisam passar por vários processos de testagem, para comprovar a eficácia da máquina nas identificações.
Possíveis problemas começam justamente no início, quando os softwares não recebem um acervo de imagens vasto e diverso o bastante para se aprimorar de maneira adequada. A consequência é uma probabilidade maior de chances de erro. No Brasil, por exemplo, muito se tem discutido sobre casos de racismo algorítmico. Câmeras acabam por identificar de maneira equivocada alguns grupos em casos de crime, isso porque essas mesmas máquinas não tem o repertório ideal para analisar as faces desses grupos sociais com a mesma precisão que em casos de imagens de homens e mulheres brancos, por exemplo.
Em um segundo ponto, é preciso averiguar a maneira e a quantidade de vezes em que essa tecnologia é testada pela desenvolvedora. Qualquer novo produto precisa ter sua eficácia comprovada por meio de testes.
O que foi divulgado na mídia é que a empresa Clearview tem um acervo de milhões de imagens em seus bancos, o que já torna mais seguro o respaldo sobre suas tecnologias. No entanto, também é preciso avaliar o contexto dos ambientes de guerra. Não é incomum que, no monitoramento dos cenários devastados de combate, encontremos imagens de câmeras danificadas, com baixa qualidade, imagens com a interferência da fumaça das explosões, rostos cobertos parcialmente por máscaras, pinturas ou movimentações rápidas.
São todos fatores do contexto que podem atrapalhar os sistemas da tecnologia e, consequentemente, gerar distorções no resultado final da análise, como equívocos. Precisamos ainda explorar todos os potenciais benefícios do Reconhecimento Facial, mas isso deve ser feito com cautela, para que não tenhamos que lidar também com as possíveis repercussões negativas.
Victor Gomes, CEO da Gryfo.
Notícia publicada originalmente em TI Inside.