Importância da diversidade no Reconhecimento Facial
A tecnologia de Reconhecimento Facial (RF) tem sido umas das mais procuradas pelas empresas ultimamente. O destaque se deve a sua praticidade, rapidez e ausência de contato físico. O sistema utiliza algoritmos para detectar se os dados cadastrados são os mesmos da imagem recebida. Assim, é possível liberar a ação do usuário através da biometria facial. Sem dúvidas, essa é uma tecnologia fantástica e que proporciona benefícios para vários setores, mas que tem esbarrado em uma discussão necessária: a importância de ter como base a diversidade no Reconhecimento Facial.
Questões éticas devem estar aliadas com os avanços tecnológicos
Alguns casos de RF têm demonstrado falhas de falsos positivos e falsos negativos, sobretudo, ao tentar a leitura facial de pessoas negras e asiáticas, em comparação com a população branca.
Mas a questão é que esse não é um problema da tecnologia, de fato, e sim da intervenção humana nos processos de aprendizagem de máquina. Isso demonstra que é preciso um olhar atencioso de quem realiza soluções com RF, pois é preciso garantir que existam registros de imagens, suficientes para contemplar uma tecnologia que beneficie a todos, sem exceções.
Até porque, a falta de empatia reflete em problemas sérios de constrangimento, racismo e até penas legais aplicadas para uma pessoa que não transgrediu a lei.
Assim, é fundamental que tecnologias de RF sejam analisadas, testadas e melhoradas, continuamente para evitar vieses nos algoritmos. Ou seja, como as máquinas aprendem com os humanos, caso não haja transparência e diversidade, os algoritmos reconhecerão apenas o que faz parte do ciclo social do desenvolvedor.
Esse é um assunto que merece ser fomentado. Por isso, para reforçar a nossa responsabilidade nas soluções com RF confiáveis, nós da Gryfo preparamos o ebook Diversidade e transparência no Reconhecimento Facial, para que você entenda a importância de ter uma equipe preparada, que entregue produtos de valor. Faça o download gratuito, clicando aqui.
Boa leitura!
O RF sempre foi especulado nos filmes de ficção científica e, por muito tempo, imaginávamos que essa tecnologia não passaria desse contexto. Contudo, os avanços tecnológicos permitiram que a ficção virasse uma tendência para o futuro, que agora já é parte do nosso presente. Embora a utilização ainda seja recente, o RF tem sido cada vez mais procurado e aceito como uma importante ferramenta nas soluções digitais.
Porém, por envolver dados pessoais sensíveis, o desenvolvimento dessas soluções precisa estar pautado em questões éticas. Antes de falarmos, de maneira mais aprofundada, sobre essas questões, é preciso entender o contexto da tecnologia de RF, compreendendo as métricas utilizadas no algoritmo desse recurso.
O RF é uma tecnologia feita para a identificação de pessoas, a partir dos padrões biométricos faciais. Esse sistema é baseado em Inteligência Artificial (IA), que funciona através de machine learning – ou aprendizado de máquina. Assim, a tecnologia utiliza algoritmos matemáticos que realizam o mapeamento de vários pontos da face.
Tais pontos são específicos, em cada pessoa, e a face humana possui cerca de 70 a 80 pontos, conhecidos como pontos nodais. Eles são utilizados para medir variáveis na identificação como a distância dos olhos, tamanho do nariz, espessura dos lábios etc.
Com essas características, o sistema gera um código que corresponde à biometria facial de um indivíduo, determinando sua identidade. Através dessa previsão, a tecnologia de RF determina a probabilidade de a imagem capturada ser a mesma, que se encontra na sua base de dados. Esse processamento tem a intenção que as imagens sejam representadas com maior efetividade, no contexto computacional, visto que ela é convertida em dados.
Para isso, são utilizados alguns parâmetros, métricas utilizadas pelo algoritmo de RF, na identificação de cada face. Veja mais sobre eles:
Threshold
Esse tipo de valor indica qual a distância máxima para considerar a face de uma pessoa igual. Para que você entenda, imagine, como exemplo, se o reconhecimento facial indicar que a distância entre duas faces é de 0.6, e o threshold (limiar) for 0.7. Nesse caso, essas faces serão consideradas correspondentes. Por isso, esse valor deve ser calibrado, já que quanto maior esse valor, mais haverá chances de reconhecer uma face. Entretanto, a confiabilidade do reconhecimento diminuirá.
Precisão
A precisão diz respeito à taxa de acerto do reconhecimento facial. No sistema de RF, caso sejam identificadas 1000 faces e 999 estiverem corretas, o valor da precisão será 99,99%.
Taxa de erro
A taxa de erro é o valor correspondente a quanto o sistema erra. Em casos que o sistema identifique 1000 faces e apenas 1 estiver incorreta, o valor da taxa de erro será 0,001%.
Recall
Essa métrica caminha em conjunto com o threshold. Dessa forma, quanto maior o threshold, maior também será o recall. O recall é definido como a capacidade de reconhecer uma face e evitar que faces cadastradas sejam assinaladas como uma face desconhecida. Para exemplificar, podemos pensar no seguinte cenário: temos 100 imagens de uma pessoa que desejamos identificar. Caso o reconhecimento facial reconheça 90 imagens corretamente, teremos um recall de 90%.
Isso indica que o restante (10%) foi assinalado como face desconhecida. Para o aumento do recall o ideal é ter uma base de dados com imagens de qualidade, com a face bem posicionada. Por isso, é fundamental que todas as soluções com RF passem por teste detalhados, pois, nos testes ficará claro a diferença do recall, entre imagens coletadas da internet versus imagens coletadas em um cenário mais controlado.
Os testes de aplicação dessas métricas no algoritmo de RF são essenciais. Pois irão evitar problemas de identificação como falsos positivos, atribuição de sexo incorreta e até discriminações. O que remete ao conceito de “viés algorítmico”, que pode ser descrito como a distorção do julgamento de um observador, por estar intimamente envolvido com o objeto de observação. Ou seja, é um tipo de viés relacionado à construção do algoritmo, em que o treinamento/aprendizado, para a tomada de decisões, foi feito segundo as decisões de seu criador.
Nesse sentido, aprendizagens relacionadas às pessoas, como a do RF, podem apresentar um viés discriminatório, tanto pelo treinamento inadequado, quanto pela sua implementação. Para quem trabalha com essa tecnologia, essa é uma responsabilidade crucial. Sobretudo, pelo fato de muitas soluções já terem incorporado o RF.
Áreas em que o Reconhecimento Facial já é aplicado
De fato, a tecnologia de RF é incrível. Ela consegue otimizar e automatizar tarefas, contribuindo para a produtividade de qualquer negócio. Por conta disso, diversos segmentos têm utilizado essa tecnologia, para muitos propósitos. O que reforça ainda mais a necessidade de priorizar a ética no desenvolvimento desse recurso. Conheça quais áreas já fazem uso do RF:
- Desbloqueio de smartphones: essa é uma das funções mais difundidas do reconhecimento facial. Vários smartphones, de diversas marcas, utilizam esse sistema para permitir o acesso do usuário às informações de seu dispositivo. Assim, garante que, caso o celular seja roubado, os dados confidenciais irão permanecer inacessíveis.
- Operações bancárias: algumas operações bancárias também já podem ser feitas, com a validação por biometria facial. Uma ilustração disso, são os bancos digitais que validam a identificação do usuário pela câmera, no aplicativo, ao efetuar o cadastro. Outras instituições já utilizam para finalizar transações, substituindo o uso de senhas.
- Pagamentos no varejo: implementado e em uso na China, principalmente, o propósito do RF nos pagamentos também já é realidade. Com essa funcionalidade, clientes podem fazer compras em estabelecimentos e finalizar os pagamentos, sem a necessidade de apresentar QR Code, cartões ou dinheiro. No Brasil, o Banco Original começou a utilizá-lo através do Pic Pay.
- Estratégia de marketing: o marketing tem conseguido criar estratégias para personalizar a comunicação e o relacionamento com o público. Assim, a reação de clientes ao lerem anúncios, usar produtos ou ingerir alimentos, pode ser captada por sensores capazes de mensurar a faixa etária do público, bem como seus sentimentos ao consumi-los; classificando como feliz, insatisfeito, surpreso ou neutro. Nesse contexto, muitas discussões giram em torno da vulnerabilidade de dados pessoais, o que alerta às empresas sobre a necessidade de ter responsabilidade no uso e se adequarem à lei.
- Órgãos legais: nos EUA, a aplicação do RF em órgãos de aplicação da lei tem aumentado. A tecnologia ajuda a identificar procurados locais através de comparações com imagens do banco de dados, servindo tanto para localização de foragidos, como para encontrar pessoas desaparecidas.
- Controle em aeroportos e fronteiras: nos aeroportos, a tecnologia tem sido uma ali ada para identificação e controle da segurança, reduzindo filas e diminuindo o tempo no processo de embarque.
- Marcador de ponto: algumas empresas já utilizam sistemas de marcação de ponto com a validação por reconhecimento facial, de forma simples, até mesmo por um smartphone. Essa é, ainda, uma excelente ferramenta para auxiliar no home office, tanto para ter o cadastro da jornada de trabalho como também para permitir o acesso a dados sensíveis da empresa. Sem falar que, nas usinas, têm facilitado a marcação de ponto, reduzindo o tempo de identificação da quantidade de pessoas que estão trabalhando no local.
- Controle de acesso: outra aplicação é em sistemas direcionados para o controle de acesso, muito utilizado em organizações que precisam restringir e proteger determinados ambientes.
Diversidade, ética e transparência no algoritmo de RF: qual a importância?
Agora que você já sabe sobre as métricas dos algoritmos, como a RF funciona e quais setores têm sido beneficiados com essa tecnologia, é importante entender a importância de ter como pilar de desenvolvimento de aplicações com RF o respeito à diversidade, ética e transparência. Caso precisássemos resumir o motivo em uma frase, seria: para não reforçar as discriminações e o racismo, sob variadas formas.
Falamos um pouco sobre o conceito de viés de algorítmico. Isso pode acontecer em diversas etapas, que passam pela coleta de dados, processamento, resultado de análises e nas informações. Sobre esse conceito, é importante ressaltar que os algoritmos reproduzem dados passados por pessoas.
Dessa forma, algoritmos de RF que não possuem uma responsabilidade de cunho ético reproduziram problemas que, há anos, fazem parte de um debate étnico caloroso no mundo. Exemplos disso são relatados no documentário Coded Bias (2020), da Netflix.
O enredo do documentário mostra a investigação do viés racista e machista, nos algoritmos de RF testados. Nessa obra, a pesquisadora Joy Buolamwini apresenta as falhas que descobriu, em sua investigação.
Em uma tarefa de RF, a pesquisadora posiciona o rosto em frente a uma tela, mas não é reconhecida. No entanto, quando Joy coloca uma máscara branca e se posiciona, à frente do mesmo sistema, o reconhecimento é feito. Assim, ela começou a constatar que o programa era treinado para identificar padrões, baseado em um conjunto de dados – de homens brancos – e, por isso, o sistema não reconhecia com precisão faces negras e/ou femininas.
Com isso, é notório que a tecnologia só reproduz o racismo que, infelizmente, já existe na sociedade. E essa intervenção humana, no processo de desenvolvimento de tecnologias, que precisa ser questionada. Isso porque, recursos tecnológicos que não contemplem a diversidade, em diferentes aspectos, podem não reconhecer titulares, reconhecer pessoas que não são as donas da biometria e até prender pessoas inocentes.
Nesse sentido, é fundamental que esse assunto seja fomentado. Até mesmo, que haja mais ações inclusivas para as vozes minoritárias na área da tecnologia. Aqui no Brasil, jovens cientistas e pesquisadores, como Nina da Hora, recém formada em Ciência da Computação, pela PUC-RJ, questionam sobre os processos dos algoritmos, buscando por mais transparência, diversidade e mais ética da sociedade.
Considerações finais
Chegamos ao final do nosso ebook e espero que ele tenha te ajudado a entender como os algoritmos funcionam no RF, e como é essencial ter estratégias que priorizem o respeito ao outro, a diversidade e a transparência, tendo ética nos processos de desenvolvimento.
Como vimos, a tecnologia não é a vilã, nesse cenário. Ao contrário, o comportamento humano é que tem reforçado que existe uma estrutura na sociedade, com práticas institucionais, culturais, históricas e interpessoais, a qual coloca alguns grupos em posições desprivilegiadas.
Para que novas tecnologias, eficientes e para todas as pessoas, sejam pensadas, quem trabalha nessa área precisa de suporte para observar muito mais do que o seu ciclo social permite. Esse, é o fator determinante, pois quando existe diversidade, seja ela de raça, gênero, cultura ou muitas outras, existem também outras realidades. E tais tecnologias necessitam desse olhar, antes de entrarem no mercado.
Por isso, a Gryfo está sempre comprometida em atualizar as bases de imagens, frequentemente, para garantir que nossas soluções atendam a todas as pessoas, pensando sempre no contexto da diversidade. Visamos, em nosso trabalho com RF, a transparência e empatia, para garantir o sucesso da nossa marca, mas com o respeito ao outro em primeiro lugar. Assim, alcançamos níveis cada vez mais altos, mantendo um processo de melhoria constante.
Gostou? Conheça mais sobre nossas soluções, visitando nossa página. Até a próxima!