Tekniska bloggspel, Android-app-apk, tips och tricks

Artificiell intelligens kan främja rasism och sexism

Obs: I nästa ämne du kommer att läsa kommer du att lära dig om: Artificiell intelligens kan främja rasism och sexism

Joy Buolamwini-The Justice League Algorithm

Men system för artificiell intelligens utvecklas för att optimera livet för varje elev.De visar att många maskinbaserade ansikts- och taligenkänningssystem är felaktiga, vilket tyder på att de stora stereotyperna om ras och kön.

Joy Buolamwini, en MIT-examen, tyckte att det var väldigt obekvämt. Eftersom mjukvaran för ansiktsigenkänning hade en stor rasfördom, kunde de inte känna igen hans ansikte. Buolamwini, en mörkhårig kvinna noterade att ansiktsanalyssystemet han testade inte kunde upptäcka hans ansikte eftersom utvecklarna i princip “De lär sig inte algoritmer för att identifiera ett brett spektrum av hudtoner” och ansiktsstruktur.

Jag upplevde det för första gången när jag var doktorand vid MIT 2015 och upptäckte att vissa ansiktsanalysprogram inte kunde upptäcka mitt mörka solfjäderansikte förrän jag satte mig på en vit mask.

Kredit: ViewApart-iStock

Skyddar ras i artificiell intelligens

Joy bestämde sig för att använda sin kunskap för att förstå varför artificiell intelligens ofta tillämpar dessa rasrisker så drastiskt, för att bekräfta det behöver hon bara ändra sitt ansikte med en vit mask “för att överensstämma med normen”.

Mjukvaran som används visar att den inte tar hänsyn till mänsklig mångfald och bestämmer vad den kallar “Effekt av överbelastning av uteslutning”.

Joy och hennes organisation samarbetar med ACLU och experter på maskinseende för att bekämpa rasfördomar i verktyg för artificiell intelligens. Hans undersökning fann att ansiktsigenkänningssystem som Amazon Recognition och andra från IBM, Microsoft introducerade stora förseningar när det gäller rasism och sexism.

Min forskning avslöjade ras- och könsstereotyper i system med artificiell intelligens som säljs av teknikjättar som IBM, Microsoft och Amazon.

Bevis visar att vissa AI-system misslyckas med att korrekt klassificera Oprah Winfreys ansikte. Kredit: Joy Buolamwini, Algorithmic Justice Alliance

I uppdrag att gissa ansiktets kön presterade alla företag betydligt bättre på manliga ansikten än kvinnliga ansikten. Företagen jag recenserade hade den högsta felfrekvensen på 1 % för män med ljusare hy.

Ledande företags artificiella intelligenssystem har misslyckats med att klassificera ansiktena på ikoniska kvinnor som Michelle Obama. Kredit: Joy Buolamwini, Algorithmic Justice Alliance

Djup upptäckt i Amazon Re-Awareness

Ett anmärkningsvärt exempel på denna felbias har visats flera gånger i Amazon Recognise. Ansiktsigenkänningssystem utvecklade av Amazon Det har funnits några utmaningar som visar teknikens kapacitet.

Under 2018 testade American Civil Liberties Union (ACLU) tekniken och förvirrade då 28 amerikanska kongressledamöter. med brott. Bevisen har publicerats på deras hemsida. ACLU laddade ner 25 000 foton från en offentlig databas, och Accreditation ombads att jämföra det med bilder från 535 medlemmar av USA:s kongress.

Som ett resultat fann systemet 28 tillfälligheter, det vill säga 28 parlamentsledamöter enligt systemet för artificiell intelligens, arresterades för att ha begått brott.

Men det är inte allt

Under 2019 testades applikationen igen av Amazon Recognition, och till mångas förvåning var resultaten inte heller uppmuntrande. I ett test utfört av ACLU identifierade identifieringstekniken felaktigt fem lagstiftare som brottslingar samtidigt som de jämfördes med en databas med polisregister.

Protesten organiserades på begäran av San Franciscos rådsmedlem Phil Ting, som driver på för ett lagförslag som skulle förbjuda brottsbekämpande myndigheter att använda teknik för ansiktsigenkänning.

“Vi ville köra det som en demonstration av hur programvaran inte är helt tydlig,” Saker säger. Vilket också tydliggör målet med hans lagförslag. För även om det verkar roligt har jag felidentifierat dem “Det är inte kul om du är någon som försöker få ett jobb, köpa ett hus och du inte kan göra det för att du har blivit falskt anklagad av en brottsling.”.

Röstlopp i taligenkänningssystem

För några månader sedan identifierade en studie aktuella rasförseningar i taligenkänningssystem. Studien är korrekt “Racial differences in automatic speech recognition”, utförd av Stanford University, den indikerar att dessa taligenkänningssystem är signifikant rasmässigt kapabla, med skillnader mellan kaukasiska och afroamerikanska röster.

Här testar vi förmågan hos fem nästa generations ASR-system – utvecklade av Amazon, Apple, Google, IBM och Microsoft – att transkribera strukturerade intervjuer gjorda med 42 vita högtalare och 73 svarta högtalare.

Vi fann att alla fem ASR-systemen visade signifikanta rasskillnader, med ett medelordfel (WER) på 0,35 för svarta högtalare jämfört med 0,19 för vita högtalare.

Resultaten visade en anmärkningsvärd skillnad från ett 19 % fel i att känna igen vita röster, till ett 35 % fel i att känna igen afroamerikanska röster. Källa: pnas.org

Dessa studier är verkligen oroande, eftersom rasförstöring finns i alla identifieringstekniker som är utformade för att fungera med mänsklig information. Efter taligenkänningsstudien uttryckte forskarna oro Taligenkänningssystem påverkade av rasfördomarhar dykt upp i andra maskininlärningsapplikationer.

IA och dess etiska principer: vilka är förseningarna när det gäller ras, kön, nationalitet?

I april 2020 introducerade en grupp forskare ett belöningsprogram för utvecklare som utforskar rasfördomar inom AI. Och även om detta är ett fantastiskt initiativ, visar det verkligen hur allvarligt det här problemet är när man bör pressas att undersöka och rapportera dessa rasstereotyper.

“Sekretessbias och belöning kommer att utöka konceptet med buggbelöning för AI och kan komplettera befintliga ansträngningar för att skapa bättre datamängder och dokumentmodeller för begränsningar.” om deras prestanda och andra egenskaper.”

Detta går hand i hand med de etiska principerna för artificiell intelligens, som bör tillämpas av dem som utvecklar denna teknik. Den tidigare DARPA-direktören Regina Dugan bad också om röda teamövningar för att ta itu med etiska utmaningar i AI-system.

“Demokratisering av artificiell intelligens och attackalgoritmbias”

Under MWC 2019 var Forrester Research chefsanalytiker Jennifer Belissent värd för seminariet “Democratizing artificiell intelligens och attackera partiska algoritmer” vilket återigen bevisade att data “inte kan vara neutrala” eftersom de föddes i ett socialt sammanhang, mot denna princip bestämde analytikern att det var nödvändigt för att alfabetisera eller demokratisera artificiell intelligens och lägga till “big data-lösningar” för att göra dessa tekniker mer tillgängliga för konsumenter.”

På samma sätt förklarar Roger Taylor, ordförande för den brittiska regeringen som övervakar data och innovationsetik att: “Etik är ögonblickets nyckelfråga” och tillägger: “Och artificiell intelligens Etik är en växande central fråga.”

Foto: AP

En viktig faktor i dagens samhälle

“Det finns inget rationellt sätt att förklara att svarta människor är mer benägna att begå brott.”

Roger Taylor sa medan han pratade om användningen av artificiell intelligens i rättssystemet, på grund av dessa fel, är det möjligt att åtala oskyldiga människor. Enligt en rapport från MIT-teknologer har juridiska experter och samhällsaktivisten Black Lives Matter beslutat att:

Polisen använder prediktiva algoritmer för att skapa strategier för var de ska skicka in sina rankningar. Brottsbekämpning använder ansiktsigenkänningssystem för att identifiera misstänkta.

Ta ansvar för beslut om ens framtid, genom algoritmer som har visat sig ha stora rasfördomar.

Teknik är en del av våra liv, ansiktsigenkänning och röstigenkänningssystem kommer att vara förinstallerade på våra mobila enheter och även några kraftfullare verktyg används av formella organisationer, som vi har nämnt, har blivit hårt kritiserade av medborgarrättsstudier för det stora antalet studier som bekräftar dessa brister. i denna nya teknik.

Ansiktsigenkänning på arenor

Artificiell intelligens, maskininlärning, ansiktsigenkänningssystem är inte bara utmanande för utvecklare, utan de presenterar sig också som en överväldigande teknik för medborgarrättsrepresentanter.

Eftersom denna teknik avslöjar den fysiska integriteten hos människor av afrikansk härkomst, migranter och kvinnor, är dessa identifieringssystem “oförberedda” för dessa situationer, eftersom deras data inte innehåller olika data.

Med artificiell intelligens, maskininlärningsalgoritmer som bearbetar informationen som tillhandahålls av deras utvecklare, är det mycket tydligt att denna process av klassificering, igenkänning, urval är subjektiv, maskininlärningssystemet lär sig av informationen som tillhandahålls, och eftersom den inte ger en mängd information som klargör existerande rasstereotyper.

Table of Contents