Central NotíciasTecnologia

Inteligência artificial: Por que as tecnologias de reconhecimento facial são tão contestadas

As ferramentas de inteligência artificial são tão boas quanto o banco de dados que usam para funcionar, mas e se essas informações foram enviesadas?

Fonte: BBC Primeira página

Polícias e forças de segurança em todo o mundo estão testando sistemas automatizados de reconhecimento facial como uma forma de identificar criminosos, foragidos e terroristas. Mas quão acurada é essa tecnologia e com que facilidade ela pode ser usada, ao lado da inteligência artificial – responsável por seu acionamento – como um meio de oprimir cidadãos?

Imagine a seguinte situação: um suspeito de terrorismo parte para uma missão suicida no centro densamente povoado de uma cidade. Se ele disparar uma bomba, centenas de pessoas podem morrer ou ficar gravemente feridas.

Câmeras de segurança que fazem a varredura dos rostos na multidão identificam o homem e comparam seus traços com fotos de um banco de dados de terroristas conhecidos ou “pessoas de interesse” para os serviços de segurança.

O sistema dispara um alarme e forças antiterroristas de rápida ação são enviadas ao local, onde matam o suspeito antes que ele possa acionar os explosivos. Centenas de vidas são poupadas. A tecnologia salva o dia.

Mas e se a tecnologia de reconhecimento facial estivesse errada? E se não fosse um terrorista, mas apenas alguém azarado o bastante para parecer com um? Um inocente teria sido sumariamente eliminado porque confiou-se demais em um sistema falível.

E se essa pessoa inocente fosse você?

Este é apenas um dos dilemas éticos colocados por essa tecnologia e pela inteligência artificial que a sustenta.

Treinar máquinas para “ver” – reconhecer e diferenciar objetos e faces – é notoriamente difícil. A visão computacional, como ela é chamada, estava tendo dificuldades até pouco tempo atrás para diferenciar um bolinho de um chihuahua – um teste decisivo para essa ferramenta.

Limitações técnicas e bases de dados enviesadas

Timnit Gebru, cientista da computação e co-líder técnico da Equipe de Inteligência Artificial Ética do Google, afirma que o reconhecimento facial tem mais dificuldade de diferenciar homens e mulheres quanto mais escuro for o tom de pele. É muito mais provável que uma mulher de pele escura seja confundida com um homem do que outra de pele mais clara.

Mas há problemas também na escolha das informações usadas para treinar esses algoritmos. “Os conjuntos de dados originais são em sua maioria brancos e masculinos, muito enviesados contra os tipos de pele mais escuros – há enormes taxas de erro por tom de pele e gênero.”

Segundo ela, “cerca de 130 milhões de adultos dos EUA já estão em bancos de dados de reconhecimento de rostos”. O país tem 327 milhões de habitantes.

Em razão desses problemas, a cidade californiana de São Francisco baniu recentemente o uso da tecnologia por agências de transporte e forças policiais. A medida sinaliza uma admissão de imperfeições e ameaças às liberdades civis. Mas outras cidades americanas e países ao redor do mundo estão cada vez mais testando a ferramenta.

Um exemplo são as forças policiais em South Wales, Londres. Manchester e Leicester também têm testado a tecnologia sob críticas de organizações de liberdades civis, como Liberty e Big Brother Watch, ambas preocupadas com o número de falsos positivos gerados pelos sistemas.

Ou seja, pessoas inocentes são erroneamente identificadas como possíveis criminosos.

“Um viés tendencioso é algo que deveria preocupar a todos nós”, disse Gebru. “O policiamento de previsão é um cenário de apostas altas.”

Deixe um comentário