Nyheter

Ansiktsgjenkjenningsprogramvare har en skjevhet, ny regjeringsrapport finner

Ansiktsgjenkjenningsprogramvare har en skjevhet, ny regjeringsrapport finner



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Ansiktsgjenkjenningssystemer viste skjevhet når det gjelder å identifisere og matche farger av personer, viser en ny føderal studie.

Landemerkeundersøkelsen skaper et negativt lys på programvare som i økende grad blir brukt av politimyndigheter rundt om i landet.

RELATERT: AI-ANSIKTSGODKJENNINGSPROGRAMVARE HAR BRUKT FOR Å FANGE EN MORDSMISTE I KINA

Afroamerikanere, asiatiske 100 ganger mer sannsynlig å bli feilidentifisert

National Institute of Standards and Technology-studien fant at afroamerikanere og asiatiske mennesker var opptil 100 ganger mer sannsynlig å bli feilidentifisert gjennom ansiktsgjenkjenningsprogramvare enn kaukasiere, avhengig av den enkelte algoritme. Blant algoritmer utviklet i USA hadde den amerikanske indiske demografien den høyeste andelen falske positive.

Studien fant også at afroamerikanske kvinner hadde den høyeste andelen falske positive for en-til-en-matching, som ofte brukes av politi for å søke millioner av mennesker i en database for å finne en mistenkt. NIST-testen brukte bare en FBI-database som inneholder 1,6 millioner innenlandske krusskudd.

"Differensialer i falske positive i en-til-mange-matching er spesielt viktige fordi konsekvensene kan omfatte falske beskyldninger," sa NIST i en pressemelding som fremhevet resultatene av studien. NIST bemerket at resultatene varierte fra en algoritme til en annen, og sa at "den mest rettferdige også rangerer blant de mest nøyaktige."

NIST så på 189 algoritmer

NIST gjennomførte studien gjennom Face Recognition Vendor Test-programmet, der de evaluerer ansiktsgjenkjenningsalgoritmer fra programvareselskaper og akademiske utviklere på deres evne til å utføre oppgaver. I denne studien brukte den fire samlinger av fotografier på 18,27 millioner bilder av 8,49 millioner individer. Alle bildene kom fra utenriksdepartementet, Department of Homeland Security og FBI.

NIST testet 189 programvarealgoritmer sendt av 99 utviklere, hvorav de fleste var bedrifter. NIST så på hvor godt algoritmene matchet bilder av samme person, som ofte brukes til å låse opp en smarttelefon eller sjekke pass og er kjent som "en-til-en" -matching. Regjeringsbyrået testet også algoritmens evne til å matche en person på et bilde med bilder i en database. Kjent som "en-til-mange" -tilpasning, kan den brukes til å identifisere en person av interesse.

"I et en-til-en-søk kan et falskt negativt bare være en ulempe - du kommer ikke inn på telefonen din, men problemet kan vanligvis løses ved et nytt forsøk," sier Patrick Grother, en datatekniker fra NIST og rapportens primære forfatter. "Men et falskt positivt i et en-til-mange-søk setter en feil kamp på en liste over kandidater som krever videre gransking."


Se videoen: Byggetips: Hvordan enkelt sikre tette løsninger rundt rør? (September 2022).