Reconhecimento facial: pesquisador do IME discute técnica de identificação pessoal

Professor participante do Computer Vision Research Group explica funcionamento e aborda as vantagens e desvantagens dessa tecnologia de análise de imagem

[Crédito: Reprodução/Pixabay]

Estamos cercados por tecnologia que se aprimora e avança o tempo todo. O desenvolvimento da automatização de serviços vem facilitando diversas tarefas do nosso dia a dia. Entretanto, durante este processo de evolução da tecnologia, também surgem novos problemas e pautas a serem discutidas.

Recentemente, a utilização da tecnologia de reconhecimento facial gerou debate entre ativistas e estudantes de segurança de dados sobre seu uso pela Central Única das Favelas (Cufa). Durante uma ação da ONG, o sistema foi utilizado para fazer a identificação de beneficiários de doações. Os ativistas questionaram e levantaram dúvidas quanto à menor precisão desta tecnologia para a avaliação de pessoas negras e asiáticas que resultou no interrompimento da aplicação do sistema

Dentro da academia, esse tipo de tecnologia também motiva discussões. No Instituto de Matemática e Estatística da Universidade de São Paulo (IME-USP), há um grupo específico que se dedica a estudos sobre reconhecimento facial e assuntos relacionados, como a visão computacional, o Computer Vision Research Group, o maior grupo de pesquisa do Brasil que integra docentes do mesmo departamento. 

O professor do Departamento de Ciência da Computação do IME, Roberto Hirata Júnior, pesquisa a área de visão computacional e aprendizado de máquina e faz parte do grupo mencionado.

Tecnologia de Reconhecimento Facial

A tecnologia de Reconhecimento Facial é baseada em aprendizado de máquina (ou Machine Learning, em inglês), um método da inteligência artificial que utiliza amostras para que a máquina aprenda por si própria com mínima intervenção humana. Por isso, este tipo de máquina recebe uma grande quantidade de dados, que servem como exemplos para que esta consiga aprender a partir deles, observar padrões e, finalmente, entender como o sistema funciona. Entretanto, esse processo não ocorre sempre da mesma forma. Hirata esclarece que existem diversos modelos de aprendizado de máquina para executar o reconhecimento facial, além de diferentes formas de implementá-los.

De acordo com o professor, o sistema envolve algumas etapas semelhantes: captura da imagem da face; detecção de ataque ao sistema (alguém apresentando uma foto para o sistema, por exemplo); avaliação da qualidade da imagem capturada; detecção identificação da posição da face; extração de características; verificação do reconhecimento facial ou identificação e revisão dos resultados por um ser humano.

Segundo Hirata, a maior dificuldade encontra-se na etapa de identificação do usuário. O sistema é composto por um grande banco com dados que são chamados de dados de treinamento. São estes dados que contém uma variedade de rostos e pessoas diferentes entre si. Para a identificação, o relacionamento que existe é de um usuário para N pessoas, ou seja, para uma pessoa que está fazendo o reconhecimento facial, o sistema terá que descobrir qual é seu correspondente dentre inúmeras pessoas.

Vantagens e desvantagens da máquina

Como todas as tecnologias, o reconhecimento facial também apresenta suas vantagens e desvantagens. Dentre os aspectos positivos, destaca-se a automatização de processos. 

Hoje existem tecnologias de reconhecimento facial para diferentes tarefas, como a detecção de rostos para desbloqueio de celular, liberação de acesso a prédios e uso de elevadores, serviços de cancelamento automático, entre outros. No caso do serviço de cancelamento, indica-se fazer a verificação automática pela máquina do que aguardar uma pessoa executar a mesma tarefa. “No caso de identificação em geral, sistemas de segurança têm muito mais câmeras que indivíduos para assisti-las. Assim, automatizar parte desta tarefa é fundamental”, relata o professor do IME. 

Ao relatar os aspectos negativos da tecnologia, Hirata relembra o livro 1984, do escritor e jornalista inglês George Orwell. “O uso indiscriminado da tecnologia pode transformar as câmeras nos olhos do grande irmão”, ressalta ele, cuja frase está atrelada à preocupação com a privacidade dos usuários e sua segurança. 

Em relação à atuação desta tecnologia no setor da segurança, de acordo com o professor, o monitoramento automático de espaços públicos, que está em prática em vários países, realiza “o cruzamento de dados com imagens de faces de criminosos procurados pela justiça”. Na Europa, entretanto, embora seja possível utilizar este sistema, as leis são bem mais restritas. Já nos Estados Unidos, alguns estados estão proibindo o uso de reconhecimento facial em espaços públicos, alegando questões de segurança e de preocupação com certos grupos sociais.

“É uma faca de dois gumes. Pode ser bom ou pode ser ruim. Essa informação nas mãos de pessoas com más intenções pode ser muito prejudicial para a própria pessoa”, ressalta Hirata. 

Enviesamento e racismo algorítmico

Além da questão da privacidade dos usuários, outro aspecto negativo do reconhecimento facial é o enviesamento de dados e o chamado “racismo algorítmico”. Casos em que pessoas negras ficam invisíveis em certos procedimentos de reconhecimento facial ou, ainda, em situações em que o sistema julga erroneamente essas pessoas.

O professor Hirata comenta que falhas e erros acontecem muitas vezes nestes sistemas. “Os modelos criados por aprendizado de máquina dependem de dados de treinamento e, em geral, não é sempre que dispomos de dados sobre certas populações minoritárias. Assim, é comum os modelos perderem precisão por causa da representatividade populacional: mulheres, crianças, negros, indígenas, entre outros”, argumenta.  

A cientista de computação e ativista digital, Joy Buolamwini, vivenciou uma dessas experiências. Em seus estudos dessa tecnologia, Buolamwini não conseguiu ter seu rosto identificado pelo sensor. O teste deu certo apenas quando ela colocou uma máscara branca de plástico no rosto é que a ferramenta entendeu aquilo como uma face. 

Para solucionar o problema, a cientista passou a estudar os processos e as causas do ocorrido. Ela analisou como diferentes sistemas de classificação funcionavam com diferentes rostos e como as respostas se alteravam com as mudanças de sexo e cor de pele. A partir de um grande banco de dados ou dataset, produzido com imagens de membros parlamentares que foram ranqueados como os dez melhores do mundo, com base na representação das mulheres, Joy escolheu três países da África (Ruanda, Senegal e África do Sul) e três da Europa (Finlândia, Suécia e Islândia) para variar os tons de pele. Depois, foram escolhidas três companhias de tecnologia para serem analisadas: IBM, Microsoft e Face ++. 

Quadro com os resultados obtidos da pesquisa. [Crédito: Reprodução/Isabella Marin]

De acordo com os dados da tabela acima, todas as empresas conseguiram reconhecer homens e mulheres de peles mais claras que escuras. O teste surpreendeu com as estimativas em subgrupos. O melhor desempenho percentual do uso desta tecnologia para identificação de mulheres negras foi de 79,2% pela Microsoft. 

Esses testes foram realizados em situações determinadas para entender todo o processo e não apresentaram exatamente um “risco iminente”, diferentemente do uso destas tecnologias de reconhecimento facial habitual no cotidiano. 

O pesquisador e mestre em Comunicação e Cultura Contemporâneas pela Universidade Federal da Bahia (UFBA), Tarcízio Silva, estuda há muito tempo a temática e elaborou uma linha do tempo sobre casos de racismo algorítmico desde 2010. Um exemplo que ficou famoso é o do sistema COMPAS (Criação de Perfil de Gerenciamento de Infratores Correcional para Sanções Alternativas). 

Uma reportagem da ProPublica, agência investigativa norte-americana, denunciou que um dispositivo, utilizado pelo Judiciário para ajudar a julgar a reincidência de réus no crime, rotulava erroneamente mais pessoas negras que brancas. A chance do sistema falhar e classificar pessoas negras como de “alto risco” era quase o dobro da probabilidade para pessoas brancas, assim como os réus brancos que reincidiram no crime e haviam sido rotulados erroneamente como de “baixo risco”.

“Uma forma de evitar o racismo algorítmico é proibir o uso indiscriminado da tecnologia, como está acontecendo nos Estados Unidos e na Europa. A lei permite o uso em casos absolutamente necessários e restritos como, por exemplo, situações de emergência, ou de segurança nacional”, esclarece Hirata. Ele comenta ainda que a comunidade de pesquisadores já busca formas de elaboração de novos modelos e técnicas, além de métodos para atenuar os problemas advindos do reconhecimento facial.

Seja o primeiro a comentar

Faça um comentário

Seu e-mail não será divulgado.


*