Kunstig intelligensCRM og dataplatforme

Hvordan en mindful tilgang til AI skærer ned på partiske datasæt

AI-drevne løsninger har brug for datasæt for at være effektive. Og oprettelsen af ​​disse datasæt er fyldt med et implicit bias-problem på et systematisk niveau. Alle mennesker lider af skævheder (både bevidste og ubevidste). Forstyrrelserne kan antage en række forskellige former: geografisk, sproglig, socioøkonomisk, sexistisk og racistisk. Og de systematiske fordomme bages i data, hvilket kan resultere i AI -produkter, der foreviger og forstørrer bias. Organisationer har brug for en opmærksom tilgang til at afbøde bias, der kommer snigende ind i datasæt.

Eksempler, der illustrerer bias-problemet

Et bemærkelsesværdigt eksempel på denne datasæt-bias, der høstede en masse negativ presse på det tidspunkt, var en CV-læsningsløsning, der favoriserede mandlige kandidater frem for kvinder. Dette skyldes, at rekrutteringsværktøjets datasæt var blevet udviklet ved hjælp af CV’er fra det sidste årti, hvor et flertal af ansøgere havde været mænd. Dataene var partiske, og resultaterne afspejlede denne skævhed. 

Et andet bredt rapporteret eksempel: På den årlige Google I/O-udviklerkonference delte Google et eksempel på et AI-drevet dermatologihjælpeværktøj, der hjælper folk med at forstå, hvad der foregår med problemer relateret til deres hud, hår og negle. Dermatologiassistenten understreger, hvordan AI udvikler sig til at hjælpe med sundhedspleje - men den fremhævede også potentialet for bias til at snige sig ind i AI i kølvandet på kritik af, at værktøjet ikke er tilstrækkeligt til farvede mennesker.

Da Google annoncerede værktøjet, noterede virksomheden:

For at sikre, at vi bygger for alle, tegner vores model sig for faktorer som alder, køn, race og hudtyper - fra lys hud, der ikke solbruner til brun hud, der sjældent brænder.

Google, ved hjælp af AI til at finde svar på almindelige hudsygdomme

Men en artikel i Vice sagde, at Google ikke kunne bruge et inkluderende datasæt:

For at udføre opgaven brugte forskerne et træningsdatasæt med 64,837 billeder af 12,399 patienter i to stater. Men af ​​de tusinder af hudtilstande, der er afbildet, kom kun 3.5 procent fra patienter med Fitzpatrick -hudtyper V og VI - dem, der repræsenterer henholdsvis brun hud og mørk brun eller sort hud. 90 procent af databasen var sammensat af mennesker med lys hud, mørkere hvid hud eller lysebrun hud, ifølge undersøgelsen. Som et resultat af den partiske prøveudtagning siger hudlæger, at appen kan ende med at over- eller underdiagnosticere mennesker, der ikke er hvide.

Vice, Googles nye dermatologi -app var ikke designet til mennesker med mørkere hud

Google svarede med at sige, at det ville forfine værktøjet, før det formelt frigives:

Vores AI-drevne dermatologi-hjælpeværktøj er kulminationen på mere end tre års forskning. Siden vores arbejde blev præsenteret i Nature Medicine, har vi fortsat med at udvikle og forfine vores teknologi med inkorporering af yderligere datasæt, der inkluderer data doneret af tusindvis af mennesker og millioner af flere kuraterede billeder af hudproblemer.

Google, ved hjælp af AI til at finde svar på almindelige hudsygdomme

Så meget som vi kunne håbe, at AI og maskinlæringsprogrammer kunne korrigere for disse skævheder, er virkeligheden fortsat: de er kun som Smart da deres datasæt er rene. I en opdatering til det gamle programmeringssprog skrald ind/skrald ud, AI-løsninger er kun lige så stærke som kvaliteten af ​​deres datasæt fra starten. Uden en korrektion fra programmører har disse datasæt ikke baggrundsoplevelsen til at rette sig selv - da de simpelthen ikke har nogen anden referenceramme.

At bygge datasæt ansvarligt er kernen i alt etisk kunstig intelligens. Og folk er kernen i løsningen. 

Mindful AI er etisk AI

Bias opstår ikke i et vakuum. Uetiske eller forudindtagne datasæt kommer fra at tage den forkerte tilgang i udviklingsfasen. Måden at bekæmpe biasfejl er ved at tage en ansvarlig, menneskecentreret tilgang, som mange i branchen kalder Mindful AI. Mindful AI har tre kritiske komponenter:

1. Mindful AI er menneskecentreret

Fra starten af ​​AI -projektet, i planlægningsfasen, skal menneskers behov stå i centrum for enhver beslutning. Og det betyder alle mennesker - ikke bare en delmængde. Derfor er udviklere nødt til at stole på et mangfoldigt team af globalt baserede mennesker til at uddanne AI-applikationer til at være inkluderende og uden forspænding.

Crowdsourcing af datasætene fra et globalt, mangfoldigt team sikrer, at forspændinger identificeres og filtreres tidligt. Personer med forskellige etniciteter, aldersgrupper, køn, uddannelsesniveauer, socioøkonomiske baggrunde og lokationer kan lettere opdage datasæt, der favoriserer et sæt værdier frem for et andet, og dermed udelukke utilsigtet skævhed.

Tag et kig på stemmeapplikationer. Når udviklere anvender en mindful AI-tilgang og udnytter kraften i en global talentpulje, kan udviklere redegøre for sproglige elementer såsom forskellige dialekter og accenter i datasættene.

Det er afgørende at etablere en menneskecentreret designramme fra begyndelsen. Det går langt i retning af at sikre, at de data, der genereres, kurateres og mærkes, opfylder slutbrugernes forventninger. Men det er også vigtigt at holde mennesker i løkken gennem hele produktudviklingens livscyklus. 

Mennesker i løkken kan også hjælpe maskiner med at skabe en bedre AI-oplevelse for hver specifik målgruppe. Hos Pactera EDGE forstår vores AI -dataprojekthold, der er placeret globalt, hvordan forskellige kulturer og sammenhænge kan påvirke indsamling og kurering af pålidelige AI -træningsdata. De har de nødvendige værktøjer, de har brug for til at markere problemer, overvåge dem og rette dem, før en AI-baseret løsning går live.

Human-in-the-loop AI er et projekt ”sikkerhedsnet”, der kombinerer menneskers styrker-og deres forskellige baggrunde med maskinernes hurtige computerkraft. Dette menneskelige og AI -samarbejde skal etableres fra begyndelsen af ​​programmerne, så forudindtaget data ikke danner et fundament i projektet. 

2. Mindful AI er ansvarlig

At være ansvarlig er at sikre, at AI -systemer er fri for bias, og at de er funderet i etik. Det handler om at være opmærksom på, hvordan, hvorfor og hvor data skabes, hvordan de syntetiseres af AI -systemer, og hvordan de bruges til at træffe en beslutning, beslutninger, der kan have etiske implikationer. En måde for en virksomhed at gøre det på er at arbejde med underrepræsenterede samfund for at være mere inkluderende og mindre forudindtaget. Inden for datakommentarer fremhæver ny forskning, hvordan en multi-annotator multi-task-model, der behandler hver annotators etiketter som separat underopgave, kan hjælpe med at afbøde potentielle spørgsmål, der er forbundet med typiske grundsandhedsmetoder, hvor annotator-uenigheder kan skyldes underrepræsentationer og kan blive ignoreret i sammenlægningen af ​​kommentarer til en enkelt grundsandhed. 

3. Pålidelig

Troværdighed kommer af, at en virksomhed er gennemsigtig og kan forklares i, hvordan AI-modellen trænes, hvordan den fungerer, og hvorfor de anbefaler resultaterne. En virksomhed har brug for ekspertise med AI -lokalisering for at gøre det muligt for sine kunder at gøre deres AI -applikationer mere inkluderende og personlige, idet de respekterer kritiske nuancer i lokalt sprog og brugeroplevelser, der kan gøre eller bryde troværdigheden af ​​en AI -løsning fra et land til det næste . For eksempel bør en virksomhed designe sine applikationer til personlige og lokaliserede sammenhænge, ​​herunder sprog, dialekter og accenter i stemmebaserede applikationer. På den måde bringer en app det samme niveau af stemmeoplevelse til alle sprog, fra engelsk til underrepræsenterede sprog.

Retfærdighed og mangfoldighed

I sidste ende sikrer mindful AI, at løsninger er bygget på fair og forskelligartede datasæt, hvor konsekvenserne og virkningen af ​​bestemte resultater overvåges og evalueres, før løsningen kommer på markedet. Ved at være opmærksomme og inkludere mennesker i alle dele af løsningens udvikling hjælper vi med at sikre, at AI-modeller forbliver rene, minimalt partiske og så etiske som muligt.

Ahmer Inam

Ahmer Inam er Chief AI Officer for Pactera EDGE, en førende global virksomhed inden for digital og teknologisk service. Han er en erfaren Data- og Analytics -chef med mere end 20 års erfaring i at lede organisatorisk transformation ved hjælp af data, teknologi, informationssystemer, analyser og dataprodukter.

Relaterede artikler

Tilbage til toppen knap
Luk

Adblock fundet

Martech Zone er i stand til at give dig dette indhold uden omkostninger, fordi vi tjener penge på vores websted gennem annonceindtægter, affilierede links og sponsorater. Vi ville sætte pris på, hvis du ville fjerne din annonceblokering, mens du ser vores websted.