A visão deturpada da máquina

0
324

Tal como o viés humano, a visão deturpada de uma máquina pode levar a injustiças, propiciar experiências de exclusão e práticas discriminatórias. O que torna o viés da máquina bem mais prejudicial que o humano é a sua capacidade de ganhar escala e se espalhar rapidamente.

Recentemente, Joy Buolamwini, cientista da computação, afrodescendente, que trabalha no Media Lab do MIT, veio a público para contar as próprias experiências de exclusão vivenciadas durante as interações mantidas com sistemas de reconhecimento facial baseados em aprendizado de máquinas.

Em um dos slides da sua apresentação, aparece usando óculos, postada diante do computador, em frente a uma webcam, para interagir com uma máquina de reconhecimento facial. Mas a máquina não percebe a sua presença. Joy tira os óculos e, mesmo assim, a máquina não a vê. Então, coloca uma máscara branca em frente ao rosto negro e a sua presença é finalmente detectada.

Joy já passara por isso antes. Quando era estudante, costumava trabalhar com robôs sociais e uma das suas tarefas era brincar de peek-a-boo com a máquina, um jogo para entreter crianças pequenas que consiste em esconder o rosto com as mãos para mostrá-lo logo em seguida. Uma condição para o jogo funcionar é que os dois participantes se vejam. Só conseguia brincar com o robô, usando uma máscara branca, com feições da colega de quarto.

Vivenciou experiência parecida em Hong Kong. Os organizadores de uma competição de empreendedorismo convidaram Joy e os demais participantes para conhecer algumas startups locais. Uma delas, que trabalhava com um robô social, decidiu fazer uma demonstração. A demo funcionou com todos os presentes menos com Joy. O robô não foi capaz de detectar a sua face. Os desenvolvedores da máquina utilizaram o mesmo software genérico de reconhecimento facial adotado pelo MIT. Foi aí que Joy percebeu que a visão deturpada do robô pode se espalhar muito rapidamente pelo mundo, apenas o tempo necessário para fazer download de alguns arquivos disponíveis na internet.

Por que o rosto dela não fora detectado? A resposta tem a ver com as técnicas de aprendizagem utilizadas para ensinar reconhecimento facial às máquinas. O primeiro passo é a seleção de um conjunto amplo de imagens, incluindo faces. O treino consiste em mostrar para a máquina as várias imagens e identificar para ela quais são faces e quais não são. Ao longo do tempo, o computador fica mais sabido e consegue reconhecer outras faces além daquelas apresentadas durante o processo de treino inicial. No entanto, se o conjunto de imagens utilizadas não for suficientemente diversificado, a máquina pode chegar a conclusões equivocadas e não detectar faces que desviam do padrão aprendido. E isso, justamente, explica o que aconteceu com Joy.

Mas a boa notícia, como lembra Joy, é que os conjuntos de treinamento são criados pelos humanos. Sendo assim, é possível aprimorar o treino, tornando esses conjuntos mais abrangentes, de forma a cobrir um espectro maior de especificidades, retratando melhor a realidade plural humana.

Os exemplos mostram como os robôs sociais excluíram a face da Joy do conjunto de faces em virtude de um viés do treino. Esse viés é perigoso, pois pode levar a práticas discriminatórias. Nos Estados Unidos, os departamentos de polícia estão começando a usar software de reconhecimento facial em seu arsenal de combate ao crime. Mas o reconhecimento facial não é à prova de falha, como nos fez ver os exemplos apresentados. Rotular as faces humanas continua sendo um grande desafio e é importante que as pessoas tenham consciência dos limites e da falta de acurácia de muitos dos sistemas que tentam fazer isto.

Além da visão computacional, e do seu uso para reconhecimento facial, a adoção da aprendizagem de máquina e da digitalização das nossas vidas está se expandindo rapidamente para outros domínios. No livro “Weapons of Math Destruction”, da cientista de dados Cathy O’Neil, algoritmos misteriosos e destrutivos, usados cada vez mais frequentemente na tomada de decisões que nos afetam, são apontados como novas armas de destruição em massa. Eles estão sendo utilizados, por exemplo, para ajudar a decidir quem será contratado ou demitido; quem deverá obter um empréstimo; quem deve ter acesso a seguro; quem deve ser admitido na faculdade e qual o preço que alguém deve pagar por um produto adquirido. E os casos de uso vão além. Alguns juízes utilizam pontuação de risco gerada por máquina para definir quanto tempo uma dada pessoa deve permanecer na prisão. Precisamos realmente pensar sobre essas decisões, diz Joy. Elas são justas?

O que fazer?

O que podemos fazer, então? Joy propõe apoio ao movimento “incoding”.  Inicialmente, sugere o desenvolvimento de plataformas para relatar vieses de algoritmos, reunir experiências como as que compartilhou e, também, auditar os softwares desenvolvidos. Recomenda, também, a criação de conjuntos de treinamento mais inclusivos para as máquinas do futuro. Nessa linha, imaginou, por exemplo, uma campanha de ´selfies para inclusão`. Seria uma forma de as pessoas contribuírem com os desenvolvedores na criação de melhores conjuntos de testes. Segundo ela, devemos, também, começar a pensar de modo mais consciente sobre o impacto social da tecnologia em desenvolvimento.

Para dar um pontapé inicial no movimento incoding, Joy lançou a Liga da Justiça Algorítmica. Qualquer interessado pode ajudar na luta contra a visão deturpada das máquinas. No codedgaze.com é possível relatar vieses, solicitar auditoria de software, contribuir nos testes de validação e participar das discussões em andamento.

Assista ao vídeo: How I’m fighting bias in algorithms

- Publicidade -
Innovation Hunter

DEIXE UM COMENTÁRIO

Please enter your comment!
Please enter your name here

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.