Diversos

Carros autônomos não reconhecem pedestres com tons de pele mais escuros

Carros autônomos não reconhecem pedestres com tons de pele mais escuros


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Um novo relatório mostra que os sistemas projetados para ajudar carros autônomos a reconhecer pedestres podem ter problemas para reconhecer pessoas com tons de pele mais escuros. A pesquisa preocupante foi enviada para o servidor de pré-impressão arxiv.

VEJA TAMBÉM: BIAS NA INTELIGÊNCIA ARTIFICIAL REQUER DISCIPLINA E COMPAIXÃO

Já existiam evidências de que alguns softwares de reconhecimento facial tinham dificuldade em trabalhar com tons de pele mais escuros. Mas os resultados do estudo em carros autônomos têm um resultado potencialmente mortal.

Melhor show tendencioso do mundo

Pesquisadores da Georgia Tech investigaram oito modelos de IA usados ​​em sistemas de detecção de objetos de última geração para concluir seu estudo. Esses sistemas permitem que veículos autônomos reconheçam sinais de trânsito, pedestres e outros objetos enquanto navegam nas estradas.

Eles testaram esses sistemas usando duas categorias diferentes com base na escala de Fitzpatrick. Uma escala comumente usada para classificar a cor da pele humana.

Pele mais escura com maior risco

No geral, a precisão do sistema diminuiu 5 por cento quando foi apresentado a grupos de imagens de pedestres com tons de pele mais escuros. E de acordo com o artigo publicado, os modelos mostraram “desempenho uniformemente pior” quando confrontados com pedestres com os três tons mais escuros da escala.

Esses resultados aparecem depois que o resultado é ajustado para levar em consideração se a foto foi tirada durante o dia ou à noite. Em resumo, o relatório sugere que pessoas com tons de pele mais escuros estarão menos seguras perto de estradas dominadas por veículos autônomos do que aqueles com pele mais clara.

A eliminação do preconceito começa com a diversidade na pesquisa

O relatório felizmente dá um breve esboço de como remediar esta realidade insondável. Isso começa simplesmente aumentando o número de imagens de pedestres de pele escura nos conjuntos de dados usados ​​para treinar os sistemas.

Os engenheiros responsáveis ​​pelo desenvolvimento desses sistemas precisam colocar mais ênfase no treinamento dos sistemas com maior precisão para este grupo.

O relatório, que os autores dizem esperar fornecer evidências convincentes o suficiente para resolver esse problema crítico antes de implantar esses sistemas de reconhecimento no mundo, é outro lembrete da falta geral de diversidade no mundo da IA.

Infelizmente, este não é o primeiro relatório de racismo potencialmente mortal em sistemas alimentados por IA. Em maio do ano passado, a ProPublica relatou que o software usado para ajudar os juízes a determinar o risco que um perpetrador representava de reconquistar um crime era tendencioso contra os negros.

Perfil racial é letal

O sistema é usado por juízes em sentenças criminais e fornece uma pontuação com base na probabilidade de reincidência da pessoa. Uma pontuação alta sugere que eles reincidirão, uma pontuação baixa sugere que é menos provável.

Os jornalistas investigativos avaliaram a pontuação de risco atribuída a mais de 7.000 pessoas no condado de Broward, na Flórida, em 2013 e 2014, e depois observaram se as mesmas pessoas foram acusadas de novos crimes nos dois anos seguintes.

O algoritmo não só provou não ser confiável, como apenas 20% das pessoas com previsão de crimes violentos o fizeram. Também foi preconceituoso racialmente.

Os réus negros eram mais propensos a serem sinalizados como futuros criminosos, rotulando-os erroneamente em quase o dobro da taxa de réus brancos. Enquanto réus brancos foram erroneamente rotulados como de baixo risco com mais frequência do que réus negros.

A comunidade de desenvolvimento de IA deve se reunir e tomar uma posição pública contra esse tipo de preconceito maciçamente prejudicial.


Assista o vídeo: CARRO AUTÔNOMO - COMPUTADOR NO VOLANTE (Julho 2022).


Comentários:

  1. Verge

    Desculpa para isso eu interfiro ... para mim, essa situação é familiar. Convido para a discussão. Escreva aqui ou em PM.

  2. Gojora

    original. need to look

  3. Samulkis

    Não entendeu absolutamente que você desejava contar.

  4. Latimer

    maravilhosamente, resposta muito valiosa

  5. Tooantuh

    Tente procurar a resposta para sua pergunta no google.com

  6. Osbert

    Há um site em um tema interessante você.



Escreve uma mensagem