Formula Chopp

Coded Bias, documentário da Netflix, revela o absurdo viés racista em algoritmos

  • Cláudia Canelli
  • Publicado em 16 de abril de 2021 às 21:30
compartilhar no whatsapp compartilhar no telegram compartilhar no facebook compartilhar no linkedin

A pesquisa acadêmica de Joy Buolamwini, do MIT, pode mudar legislações nos Estados Unidos, e abalou empresas de tecnologia

A descoberta de Joy Buolamwini mudou legislações nos EUA sobre o uso de inteligência artificial no reconhecimento de faces. Netflix/Reprodução

Leia mais em: https://guiadoestudante.abril.com.br/dica-cultural/coded-bias-documentario-da-netflix-revela-vies-racista-em-algoritmos/

O documentário da Netflix Coded Bias (2020) é dirigido por Shalini Kantayya e investiga o viés racista e machista da inteligência artificial (IA) por trás dos algoritmos de reconhecimento facial.

O enredo poderia fazer parte da série distópica Black Mirror, mas é tema de caloroso debate ético no mundo real.

Pesquisadora do Instituto de Tecnologia de Massachusetts (MIT), Joy Buolamwini apresenta as falhas que descobriu nessa tecnologia na pesquisa que conduz o filme.

Coded Bias mostra como Buolamwini percebeu o problema no reconhecimento facial: em uma tarefa no MIT Media Lab, ela posiciona o rosto em frente a uma tela com dispositivo de inteligência artificial, mas não é reconhecida.

Quando ela coloca uma máscara branca, o sistema consegue detectar.

Assim, a pesquisadora começou a constatar que os programas de inteligência artificial são treinados para identificar padrões baseados em um conjunto de dados (de homens brancos) e, por isso, parecem não reconhecer com precisão faces femininas ou negras.

“A tecnologia de reconhecimento foi construída utilizando uma amostragem menor de rostos negros e de mulheres. Esse fato impede uma taxa de acertos maior. Foi uma escolha enviesada.

No entanto, é possível realimentar o algoritmo para corrigir a classificação”, afirma Simone Diniz Junqueira Barbosa, especialista na área de Interação Humano-Computador e professora da PUC-Rio.

Além do estudo de Buolamwini , o documentário apresenta diversos trabalhos de outros pesquisadores e ativistas que lutam contra o uso sem regulação da tecnologia de reconhecimento.

É o caso de  Silkie Carlo. Ela é diretora do Big Brother Watch, iniciativa que monitora o uso do reconhecimento facial pela polícia do Reino Unido.

A preocupação no mundo todo é que a tecnologia de reconhecimento utilizada para segurança pública acuse e prenda suspeitos com base em uma análise errada.

A IA já é usada para determinar se uma pessoa merece receber crédito no banco ou não, se um suspeito deve ser preso e se um doente deve ter prioridade no atendimento de hospital.

“Grandes empresas usam o reconhecimento para que funcionários batam ponto. Policiais encontram criminosos foragidos. Médicos conseguem identificar doenças por meio de imagens.

Ou seja, se há uma massa de dados significativa, a tecnologia pode ser positiva para todos.

No entanto, o que estamos debatendo é como evitar a informação enviesada dos algoritmos”, diz Barbosa.

Na PUC-Rio há um grupo de pesquisa sobre Ética e Mediação Algorítimica de Processos Sociais (EMAPS) dedicado ao tema.

“As pesquisas seguem critérios éticos. Nós deixamos rastros digitais o tempo todo.

Os dados são valiosos porque eles podem ser usados por empresas ou governos para manipular o nosso comportamento”, explica Barbosa.

O filme Coded Bias dá exemplos: na China,  protestos em Hong Kong são feitos com manifestantes de máscaras para impedir o reconhecimento facial.

A tecnologia de reconhecimento é usada pelo governo chinês para prender suspeitos.

Nessas manifestações, grupos se organizam para pichar as câmeras de segurança.

Nos EUA, um condomínio no Brooklyn, onde predominam as populações negras e latinas, utiliza reconhecimento facial sem consentimento dos moradores.

Segundo dados do documentário, mais de 117 milhões de pessoas nos Estados Unidos têm o rosto em redes de reconhecimento facial a que a polícia pode acessar.

Em 25 de junho de 2020, sob influência da pesquisa de Buolamwini, que analisou dados enviesados de diversas empresas de tecnologia, parlamentares americanos apresentaram projeto de lei proibindo o uso federal de reconhecimento facial.

No Brasil também não há regulação específica para a tecnologia, mas a Lei de Proteção de Dados fala sobre o assunto e exige maior transparência das práticas adotadas pelas empresas.


+ Tecnologia