Inteligência Artificial

Como um sistema de reconhecimento facial foi enganado por algoritmos

14/08/2020

Tempo estimado de leitura: 3 minutos

Cientistas da McAfee utilizaram algoritmos de Machine Learning para que um sistema de reconhecimento facial identificasse uma pessoa de forma errada.

O reconhecimento facial abre espaço para muitos debates sobre seu uso na sociedade. Das questões de segurança pública à identificação de pessoas com possíveis sintomas de COVID-19, empresas e entidades governamentais buscam desenvolver uma solução baseada na tecnologia.

Porém, ela é realmente segura?

Se depender de pesquisadores da McAfee, companhia de software de segurança, a tecnologia tem um longo caminho pela frente para mostrar que está livre de falhas.

Em uma publicação no MIT Technology Review, periódico do Instituto de Tecnologia de Massachusetts (MIT), os cientistas da McAfee explicaram como usaram Machine Learning para enganar um sistema de reconhecimento facial semelhante aos utilizados em aeroportos.

Ao criar a imagem quase real de uma pessoa, os algoritmos do sistema a identificaram como outra. Esse erro seria como permitir o embarque de um passageiro em um voo que ele não teria comprado um bilhete.

O estudo foi feito em um sistema inteligente semelhante ao utilizado para verificação de passaportes, segundo o líder da pesquisa, Steve Povolny. “Nós podemos causar esse tipo de classificação incorreta ao comparar fotos de passaporte com o que o sistema de reconhecimento facial esta ‘olhando’”, contou.

Como o sistema de reconhecimento facial foi enganado?

Para o estudo, os cientistas utilizaram o CycleGAN (GAN é a sigla em inglês para Generative Adversarial Network ou Redes Adversárias Generativas), um algoritmo de tradução (transformação) de imagem.

A equipe da McAfee usou 1.500 fotos de cada um dos dois leads (no caso, duas pessoas) do projeto e colocou as imagens em um CycleGAN para transformá-las umas nas outras.

Em paralelo, o sistema de reconhecimento facial foi usado para verificar e tentar identificar as imagens dessas duas pessoas geradas pelo CycleGAN.

Após centenas de fotos serem criadas, o CycleGAN conseguiu gerar uma imagem falsa, porém quase real, da pessoa A, conseguindo enganar o sistema, fazendo-o pensar que era a pessoa B.

Parece complicado, mas no próximo tópico explicamos mais como funciona essa classe de algoritmo CycleGAN que levou o sistema ao erro.

Entendendo o CycleGAN

GAN é uma classe de algoritmo que vai opor redes neurais umas às outras para gerar os melhores resultados. Por exemplo, é possível fazer com que uma foto tirada em Porto de Galinhas (PE) no verão pareça ter sido fotografada no inverno.

Tradicionalmente o GAN usa apenas duas redes:

  • Gerador: responsável em treinar o conjunto de dados para criar imagens da praia de Porto de Galinhas no verão.
  • Discriminador: vai comparar todas as imagens criadas com o conjunto de dados treinado e decidir se elas são reais ou não.

Já o CycleGAN conta com dois geradores, dois discriminadores e dois conjuntos de imagens: um de Porto de Galinhas no verão e outro da praia no inverno. Assim, fica mais fácil representar os tipos de foto que o algoritmo vai traduzir.

Com isso, os geradores vão atuar da seguinte maneira: o primeiro vai treinar o algoritmo com as imagens da praia no verão para que ele crie imagens da praia no inverno. Enquanto o segundo faz o caminho inverso: usa Porto de Galinhas no inverno para criar imagens da praia no verão.

Já os dois discriminadores são executados para identificar as imagens falsas da praia de Porto de Galinhas até que elas sejam indistinguíveis das reais.

A importância do fator humano no reconhecimento facial

O time da McAfee não utilizou as soluções de reconhecimento adotadas em aeroportos. Mas, para o estudo, desenvolveu uma ferramenta semelhante ao utilizar algoritmos de código aberto. Isso trouxe alguns questionamentos para os cientistas.

O primeiro, segundo Povolny, é que cibercriminosos podem ter dificuldade de invadir um sistema de reconhecimento facial. No entanto, não é uma tarefa impossível visto que, se o time enganou um algoritmo semelhante, uma solução usada em um aeroporto também pode ser violada.

Outro ponto é o poder computacional, tempo e recursos. CycleGAN precisa de máquinas poderosas, além de pessoas com experiência para treinar e executar esses algoritmos.

Por último, os pesquisadores destacam a importância do fator humano, uma vez que a tecnologia foi adotada do dia para a noite como medida de segurança em relação ao novo coronavírus. Assim, eles acreditam que as empresas devem ser transparentes quanto ao uso dela.

“Inteligência Artificial e reconhecimento facial são ferramentas incrivelmente poderosas para auxiliar na identificação e autorização de pessoas”, disse Povolny. Porém, para o pesquisador, a ameaça pode surgir quando essas soluções substituem o trabalho de um colaborador sem um teste de vulnerabilidade ter sido realizado antes.

No vídeo abaixo, do canal da McAfee no YouTube, você confere mais como o reconhecimento facial foi enganado:

Principais destaques desta matéria

  • Sistema de reconhecimento facial pode ser enganado, aponta McAfee.
  • Empresa usou algoritmos de Machine Learning para criar imagens e fazer com que reconhecimento facial identificasse uma pessoa de forma errada.
  • Estudo levanta discussão sobre possíveis vulnerabilidades ao adotar a tecnologia sem a realização de testes.

Compartilhe:

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *