Er AI løsningen for en inkluderende rekrutteringsprosess, eller skaper den nye utfordringer?
Kan vi virkelig stole på at AI gir en rettferdig og inkluderende rekrutteringsprosess, eller kan teknologien i verste fall forsterke eksisterende utfordringer og fordommer?
Kunstig intelligens (AI) har de siste årene blitt en stadig mer dominerende aktør i rekruttering. Ved hjelp av automatiserte algoritmer kan selskaper effektivisere ansettelsesprosesser gjennom CV-filtrering, nøkkelordmatching, og chatbot-intervjuer. På papiret høres det jo ut som en ideell løsning for en mer inkluderende rekruttering.
Vi bruker mindre tid på manuell gjennomgang, det er tilpasset kommunikasjon med kandidater og en mulighet til å redusere bias ved å anonymisere CV-er. Men kan vi virkelig stole på at AI gir en rettferdig og inkluderende rekrutteringsprosess, eller kan teknologien i verste fall forsterke eksisterende utfordringer og fordommer?
AI og historiske biases
En av de største utfordringene med AI i rekruttering er dens avhengighet av historiske data. For at algoritmene skal kunne utføre oppgavene sine effektivt, må de trenes på store datasett – og disse datasettene bærer ofte med seg biases som reflekterer virkeligheten.
Hvis datasettet består av informasjon om tidligere ansettelser, kan det lett bære med seg fordommer knyttet til kjønn, etnisitet eller alder. Når AI-systemet deretter trenes på disse dataene, er det stor risiko for at disse biasene videreføres.
Et kjent eksempel på det er Amazon, som i 2018 måtte legge ned sin rekrutteringsalgoritme etter å ha oppdaget at systemet favoriserte mannlige kandidater.
AI-en ble trent på en historisk database med informasjon om tidligere ansettelser i selskapet, som igjen hadde en tendens til å favorisere menn – systemet viste til allerede eksisterende en eksisterende kjønnsbias.
Dette førte til at kvalifiserte kvinnelige kandidater ble valgt bort til fordel for menn, selv om de teknisk sett hadde samme kvalifikasjoner.
Er AI nøytral?
Ved første øyekast fremstår AI som en objektiv og effektiv løsning – algoritmene tar tross alt beslutningene, ikke mennesker med sine subjektive vurderinger.
Men er det virkelig så nøytralt? Svaret er langt mer komplekst.
Algoritmer er utviklet av mennesker, og de bærer med seg både menneskelige perspektiver og historiske data. Tenk deg dette, hvis et AI-system er laget av en homogen gruppe, risikerer vi at systemet reproduserer deres synspunkter og perspektiver. Derfor kan et AI-system trent på et ensidig datasett ha begrenset forståelse av både etniske, kulturelle og kjønnsmessige variasjoner.
En annen utfordring er bruk av AI for ansiktsgjenkjenning. Algoritmer som er trent på bilder av mennesker med lys hud kan ha betydelige problemer med å korrekt identifisere personer med mørkere hudfarge. Dette kan også føre til utfordringer i en rekrutteringsprosess, der minoriteter allerede ofte er utsatt for diskriminering, og har en betydelige redusert sjansen for å bli invitert til førstegangsintervju.
Hvordan sikre en inkluderende AI?
Hvordan kan vi sikre at AI er et verktøy for å bidra til en mer inkluderende rekrutteringsprosess? Det handler om balansert tilnærming av teknologi og det menneskelige.
AI kan være et kraftig verktøy som forbedrer effektiviteten i rekrutteringsprosessen, men det krever at vi er bevisste på begrensninger det også tilføyer.
Som forskeren Joy Buolamwini påpeker, så er det viktig å utvikle AI på en etisk måte. Dette innebærer blant annet å bruke mangfoldige og representerende datasett, ansvarlig regulering og åpenhet rundt hvordan algoritmene fungerer. Det er også nødvendig å kontinuerlig overvåke og justere systemene for å oppdage og korrigere eventuelle skjevheter som kan oppstå.
En etisk bruk av AI krever at vi vurderer hvordan systemene evaluerer og anerkjenner ulike typer "suksess". Når AI-systemer trenes på data som beskriver «høytytende» ansatte, må vi være oppmerksomme på hvordan slike vurderinger er gjort. Minoritetsgrupper har ofte hatt begrenset tilgang til høyere stillinger, og hvis algoritmene bygger på tidligere suksesshistorier som utelukkende er basert på majoritetsgrupper, kan det føre til at kvalifiserte kandidater fra underrepresenterte grupper blir oversett.
Fremtidens rekruttering vil utvilsomt innebære en større grad av automatisering, men dette betyr ikke at menneskelig vurdering skal fjernes fra prosessen. AI bør sees på som et supplement til den menneskelige vurderingen, ikke som en erstatning.
Det er også viktig å understreke at AI alene ikke er løsningen på diskriminering i arbeidsmarkedet.
Det er et verktøy, og som alle andre verktøy, er det oss mennesker som bestemmer hvordan det skal brukes. Vi må integrere teknologi på en måte som ivaretar mangfold og sikrer en rettferdig prosess.