Instituto de pesquisa testou tecnologias de gigantes como Microsoft, Intel e Tencent. — Foto: REUTERS/Thomas Peter
Os sistemas de reconhecimento facial podem produzir resultados imprecisos, especialmente para pessoas que não são brancas, revelou um estudo de um centro de pesquisa do governo dos Estados Unidos publicado nesta quinta-feira (19) e que analisou mais de 200 algoritmos voltados para essa tecnologia.
O estudo, realizado pelo Instituto Nacional de Padrões e Tecnologia (NIST), suscita novas dúvidas sobre a implantação da tecnologia de reconhecimento em larga escala.
Os pesquisadores encontraram taxas de "falso positivo" para asiáticos e afro-americanos que eram até 100 vezes mais altas do que para brancos, e também descobriram que dois algoritmos atribuíam o sexo errado a mulheres negras quase 35% das vezes. As taxas de erro também foram altas para nativos americanos.
Entre as empresas que vendem algoritmos de reconhecimento facial estavam gigantes como Microsoft e Intel, além de empresas chinesas como Tencent, dona do WeChat, e Didi Chuxing, que é dona da 99.
Já o algoritmo que é vendido pela gigante Amazon não estava na lista, porque a participação era voluntária e os desenvolvedores não enviaram o material para análise.
O NIST encontrou tanto "falsos positivos" — quando um indivíduo é identificado erroneamente — como "falsos negativos", nos quais os algoritmos não conseguem definir com precisão a identidade de uma pessoa a partir de uma base de dados.
"Um falso negativo poderia ser simplesmente um inconveniente. A pessoa não pode acessar seu telefone, por exemplo, mas o problema geralmente pode ser contornado com uma segunda tentativa", disse o pesquisador Patrick Grother. "Mas um falso positivo justifica uma maior análise", destacou.
No entanto, alguns algoritmos desenvolvidos em países asiáticos produziram taxas de precisão semelhantes para a coincidência entre rostos asiáticos e caucasianos, que segundo os pesquisadores sugere que essas disparidades podem ser corrigidas.
Tecnologia implementada em larga escala
O reconhecimento facial vive um momento de aplicação generalizada, com aplicações em aeroportos, segurança nas fronteiras, bancos, lojas comerciais, escolas e tecnologia pessoal, assim como para desbloquear smartphones.
Alguns ativistas e pesquisadores afirmam que o potencial de erros é muito grande e que isso pode resultar na prisão de pessoas inocentes, além de que a tecnologia pode ser usada para criar bancos de dados que podem ser invadidos ou usados incorretamente.
Jay Stanley, da União das Liberdades Civis dos Estados Unidos, disse que o novo estudo mostra que a tecnologia não está pronta para ampla implantação.
"Inclusive os cientistas do governo agora estão confirmando que esta tecnologia de vigilância é defeituosa e parcial", destacou Stanley num comunicado à agência France Press.
"Uma coincidência falsa pode levar uma pessoa a perder seu voo, seja submetida a longos interrogatórios, colocada em listas de vigilância, seja detida por motivos errados ou algo pior".
Em algumas cidades dos Estados Unidos — como São Francisco, Oakland e Sommerville —reconhecimento facial foi banido por governos locais.
São Francisco, nos EUA, proíbe uso de câmeras de reconhecimento facial pela polícia