Viés de Inteligência Artificial pode prejudicar negócios_02

Viés de Inteligência Artificial pode prejudicar negócios

Inteligência Artificial pode criar comportamento predatório nos negócios de uma empresa. IBM conseguiu eliminar viés em tecnologia usada no Torneio de Wimbledon.

Principais destaques:

  • Inteligência Artificial pode ajudar processos de empresas, mas viés ainda é problema;
  • Três fatores podem levar desenvolvimento de modelo de IA parcial;
  • Empresas, como a IBM, tentam reverter viés treinando algoritmos para identificá-lo.

A Inteligência Artificial pode se tornar uma grande aliada das empresas, mas está longe de ser perfeita. O motivo: o treinamento enviesado de um algoritmo.

Nem sempre as empresas estão cientes dos vieses quando elas estão desenvolvendo os algoritmos que irão compor a solução baseada em IA.

FIQUE POR DENTRO: Entenda as tecnologias por trás da IA.

Quando o viés de IA pode acontecer?

Um artigo do MIT Technology Review ajuda a explicar as diferentes etapas em que a Inteligência Artificial pode acabar recebendo informações enviesadas (ou preconceituosas). Os três principais momentos em que isso pode acontecer são: na definição do problema, na coleta de dados e também na preparação dos dados. Veja abaixo como isso pode acontecer em cada caso.

– Na definição do problema: a primeira coisa que os cientistas da computação fazem quando criam um modelo de Deep Learning é decidir o que eles realmente querem que a tecnologia alcance.

Por exemplo, uma empresa de cartão de crédito pode querer prever se determinado cliente deve ou não receber um crédito.

Mas para a IA decidir se o cliente receberá um “sim” ou “não”, a empresa deve definir se quer maximizar a margem de lucro ou maximizar a quantidade de empréstimos pagos.

Como afirma Solon Barocas, especialista em Machine Learning e professor da Universidade de Cornell, “são decisões tomadas por vários motivos de negócios, além de justiça ou discriminação.”

– Na coleta de dados: o viés pode aparecer de duas maneiras nos dados de treinamento. Ou os dados coletados podem não representar a realidade, ou então refletem preconceitos já existentes.

Um exemplo de dados que não representem a realidade: quando o algoritmo é alimentado com mais fotos de pessoas brancas do que negras. Isso vai dificultar a IA em reconhecer rostos negros.

E o preconceito? Bom, isso pode ser exemplificado com um caso que ocorreu na Amazon. A ferramenta interna de recrutamento estava dispensando candidatas mulheres e favorecendo homens por ter sido treinada com o histórico de como a empresa sempre contratou.

Como no passado os profissionais homens eram mais contratados do que as profissionais mulheres, a Inteligência Artificial da ferramenta passou a aplicar também essa lógica.

– Na preparação dos dados: é possível introduzir um viés durante o estágio de preparação dos dados, a etapa que envolve selecionar quais atributos a empresa deseja que o algoritmo considere.

Pegando o exemplo da Amazon citado acima, os atributos escolhidos para a ferramenta podem ter sido o gênero, o nível de educação e anos de experiência do candidato.

“Escolher quais atributos considerar ou ignorar pode influenciar significativamente a precisão de previsão do modelo [de Deep Learning]. Mas, embora seu impacto na precisão seja fácil de medir, seu impacto no viés do modelo não é”, diz um trecho do artigo.

FIQUE POR DENTRO: 5 palestras do TED Talks para entender mais sobre IA.

É difícil evitar o viés na Inteligência Artificial?

O viés na Inteligência Artificial não aparece de forma óbvia nos modelos construídos pela empresa. Às vezes, a companhia não consegue nem identificar os impactos desse problema.

Mesmo assim, quando o viés é descoberto, é difícil saber em qual ponto ele foi introduzido e como retirá-lo da solução de IA.

Ausência de contexto social, processos falhos de teste e validação, além da difícil tarefa de ensinar, com o apoio da matemática, o que é justiça para uma máquina pode impactar no sucesso de uma Inteligência Artificial.

Como a IBM eliminou o viés de sua Inteligência Artificial em Wimbledon?

Crédito: iStock

Desde 2017, a IBM utiliza IA no Torneio de Wimbledon para levar uma experiência mais imersiva para quem acompanha, presencialmente ou de casa, um dos 700 jogos de tênis disputados num curto período de duas semanas.

Naquele ano, a IBM começou a mapear e capturar cada segundo das partidas do torneio e utilizou algoritmos de Machine Learning e Deep Learning para definir quais cenas entrariam nos vídeos de melhores momentos de cada partida.

O Watson, sistema de IA da IBM, analisou 39 fatores dessas partiras e atribuiu uma “pontuação de excitação” para cada jogada. Só que isso gerou um viés de dados. Por exemplo: alguns jogadores tem reações diferentes quando fazem um ponto. E o mesmo acontece com a torcida que pode vibrar de um jeito quando um tenista famoso faz um ponto e ter outro comportamento quando o mesmo ponto é feito por um jogador com menos fãs.

Para eliminar o viés nas partidas do torneio de 2019, a empresa utilizou uma ferramenta de insights de algoritmos: o Watson OpenSacale. Ela passou por um novo treinamento manual com mais de 600 cenas de jogos da edição de 2018.

E nesse treinamento, passou a considerar também não só a maneira como a torcida vibrava a cada ponto, mas também a hora do dia e até a quadra em que o jogo foi disputado.

Assim, a tecnologia foi capaz de remover o viés das jogadas a partir de análises de um conjunto de atributos monitorados, garantindo um vídeo de melhores momentos com cenas mais “fiéis” à realidade e em um curto espaço de tempo.

Um problema que não pode ser ignorado

O viés na Inteligência Artificial traz problemas e será pauta constante na comunidade de inovação. Mesmo assim, empresas já estão ciente e trabalham para reverter esse cenário.

Algoritmos que ajudam a detectar ou reduzir o viés na Inteligência Artificial já estão em desenvolvimento e treinamento. “Não é algo que pode ser resolvido facilmente. Mas “consertar” um algoritmo preconceituoso é um processo contínuo, assim como a discriminação em qualquer espectro da sociedade”, afirmou ao MIT Technology Review Andrew Selbst, pós-doutorado na Data & Society Research Institute (Estados Unidos).

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *