
We are searching data for your request:
Upon completion, a link will appear to access the found materials.
Um novo relatório mostra que os sistemas projetados para ajudar carros autônomos a reconhecer pedestres podem ter problemas para reconhecer pessoas com tons de pele mais escuros. A pesquisa preocupante foi enviada para o servidor de pré-impressão arxiv.
VEJA TAMBÉM: BIAS NA INTELIGÊNCIA ARTIFICIAL REQUER DISCIPLINA E COMPAIXÃO
Já existiam evidências de que alguns softwares de reconhecimento facial tinham dificuldade em trabalhar com tons de pele mais escuros. Mas os resultados do estudo em carros autônomos têm um resultado potencialmente mortal.
Melhor show tendencioso do mundo
Pesquisadores da Georgia Tech investigaram oito modelos de IA usados em sistemas de detecção de objetos de última geração para concluir seu estudo. Esses sistemas permitem que veículos autônomos reconheçam sinais de trânsito, pedestres e outros objetos enquanto navegam nas estradas.
Eles testaram esses sistemas usando duas categorias diferentes com base na escala de Fitzpatrick. Uma escala comumente usada para classificar a cor da pele humana.
Pele mais escura com maior risco
No geral, a precisão do sistema diminuiu 5 por cento quando foi apresentado a grupos de imagens de pedestres com tons de pele mais escuros. E de acordo com o artigo publicado, os modelos mostraram “desempenho uniformemente pior” quando confrontados com pedestres com os três tons mais escuros da escala.
Esses resultados aparecem depois que o resultado é ajustado para levar em consideração se a foto foi tirada durante o dia ou à noite. Em resumo, o relatório sugere que pessoas com tons de pele mais escuros estarão menos seguras perto de estradas dominadas por veículos autônomos do que aqueles com pele mais clara.
A eliminação do preconceito começa com a diversidade na pesquisa
O relatório felizmente dá um breve esboço de como remediar esta realidade insondável. Isso começa simplesmente aumentando o número de imagens de pedestres de pele escura nos conjuntos de dados usados para treinar os sistemas.
Os engenheiros responsáveis pelo desenvolvimento desses sistemas precisam colocar mais ênfase no treinamento dos sistemas com maior precisão para este grupo.
O relatório, que os autores dizem esperar fornecer evidências convincentes o suficiente para resolver esse problema crítico antes de implantar esses sistemas de reconhecimento no mundo, é outro lembrete da falta geral de diversidade no mundo da IA.
Infelizmente, este não é o primeiro relatório de racismo potencialmente mortal em sistemas alimentados por IA. Em maio do ano passado, a ProPublica relatou que o software usado para ajudar os juízes a determinar o risco que um perpetrador representava de reconquistar um crime era tendencioso contra os negros.
Perfil racial é letal
O sistema é usado por juízes em sentenças criminais e fornece uma pontuação com base na probabilidade de reincidência da pessoa. Uma pontuação alta sugere que eles reincidirão, uma pontuação baixa sugere que é menos provável.
Os jornalistas investigativos avaliaram a pontuação de risco atribuída a mais de 7.000 pessoas no condado de Broward, na Flórida, em 2013 e 2014, e depois observaram se as mesmas pessoas foram acusadas de novos crimes nos dois anos seguintes.
O algoritmo não só provou não ser confiável, como apenas 20% das pessoas com previsão de crimes violentos o fizeram. Também foi preconceituoso racialmente.
Os réus negros eram mais propensos a serem sinalizados como futuros criminosos, rotulando-os erroneamente em quase o dobro da taxa de réus brancos. Enquanto réus brancos foram erroneamente rotulados como de baixo risco com mais frequência do que réus negros.
A comunidade de desenvolvimento de IA deve se reunir e tomar uma posição pública contra esse tipo de preconceito maciçamente prejudicial.
Desculpa para isso eu interfiro ... para mim, essa situação é familiar. Convido para a discussão. Escreva aqui ou em PM.
original. need to look
Não entendeu absolutamente que você desejava contar.
maravilhosamente, resposta muito valiosa
Tente procurar a resposta para sua pergunta no google.com
Há um site em um tema interessante você.