KI i rekruttering: når blir det høy risiko under KI-forordningen?
EU KI-forordningen klassifiserer KI-systemer brukt i rekruttering som potensielt høyrisiko. Men ikke all bruk av KI i ansettelsesprosesser utløser automatisk de strengeste kravene. Denne artikkelen forklarer hvilke bruksmønstre som typisk faller i høyrisikokategorien, hva som kan falle utenfor, og hvordan du vurderer dine egne systemer.
Merk: Denne artikkelen er veiledende og erstatter ikke en konkret juridisk vurdering av virksomhetens egne systemer.
Hva forordningen sier
KI-forordningens vedlegg III (Annex III) lister eksplisitt opp KI-systemer brukt i arbeidslivet. Innen rekruttering pekes det på systemer som brukes til:
- Utlysning av ledige stillinger og målrettet distribusjon av annonser.
- Filtrering og screening av søknader.
- Vurdering av kandidater i utvelgelses- eller intervjuprosessen.
- Beslutninger om ansettelse.
Begrunnelsen for høyrisiko-klassifisering er at slike systemer påvirker personers tilgang til arbeid og inntekt – en grunnleggende rettighet.
Bruksmønstre som typisk er høyrisiko
Automatisk screening og rangering
Hvis KI-systemet filtrerer bort kandidater eller rangerer søkere basert på CV-innhold, nøkkelord eller andre kriterier, er dette typisk høyrisiko. Dette gjelder selv om et menneske tar den endelige beslutningen – det avgjørende er om systemets output påvirker hvem som vurderes videre.
Eksempel: Et rekrutteringssystem analyserer 200 søknader og presenterer de 20 «best matchede» for rekruttereren. De 180 kandidatene som ikke vises, er i praksis filtrert bort av KI-systemet.
Videointervjuer med analyse
Systemer som analyserer kandidaters ansiktsuttrykk, stemme, ordvalg eller kroppsspråk under videointervjuer er høyrisiko. Slike systemer kan også berøre forbudte praksiser (artikkel 5) dersom de forsøker å utlede følelser fra biometriske data.
Personlighetstester med KI-scoring
Når KI brukes til å tolke eller score personlighetstester, og resultatene påvirker hvem som går videre i prosessen, er dette normalt høyrisiko. Systemet trekker slutninger om egenskaper som er vanskelige å etterprøve, og konsekvensene for kandidatene er vesentlige.
Matching-algoritmer
Systemer som automatisk matcher kandidater mot stillinger basert på profiler, preferanser eller historiske data kan være høyrisiko, avhengig av hvor stor innflytelse matchingen har på hvem som faktisk vurderes.
KI-basert referansesjekk
Verktøy som automatiserer og analyserer referansesjekk ved hjelp av KI faller i kategorien høyrisiko dersom resultatene brukes som grunnlag for ansettelsestbeslutninger.
Bruksmønstre som kan falle utenfor høyrisiko
Ren administrativ støtte
Hvis KI kun brukes til å organisere søknader i mottaksfase, sende automatiske bekreftelser eller planlegge intervjutider uten å påvirke utvelgelsen, er dette normalt ikke høyrisiko. Systemet har ingen innflytelse på hvem som vurderes.
Enkel CV-parsing (datauttrekk)
En CV-parser som trekker ut kontaktinformasjon og strukturerer data uten å rangere, score eller filtrere kandidater, faller trolig utenfor. Men grensen er flytende – om parseren i tillegg tilordner kompetansekategorier som brukes i søk, kan den bevege seg mot høyrisiko.
Tekstgenerering for stillingsannonser
KI-verktøy som hjelper med å skrive stillingsannonsetekster uten å påvirke utvelgelsen av kandidater, er normalt ikke høyrisiko i forordningens forstand.
Grensetilfeller og vurderingskriterier
Mange systemer befinner seg i gråsoner. Følgende spørsmål kan hjelpe vurderingen:
| Spørsmål | Hvis ja → |
|---|---|
| Påvirker systemets output hvem som går videre til neste steg? | Peker mot høyrisiko |
| Brukes KI-output som beslutningsgrunnlag, direkte eller indirekte? | Peker mot høyrisiko |
| Ville kandidaten blitt vurdert annerledes uten systemet? | Peker mot høyrisiko |
| Kan systemet i praksis utelukke kandidater fra prosessen? | Peker mot høyrisiko |
| Er systemets rolle kun praktisk tilrettelegging uten påvirkning på utfall? | Peker mot lavere risiko |
En tommelfingerregel
Hvis systemet påvirker hvem som vurderes eller hvordan de vurderes, bør det som hovedregel behandles som høyrisiko. Hvis systemet kun påvirker når eller hvordan effektivt prosessen gjennomføres uten innflytelse på utfall, kan det falle utenfor.
Vanlig misforståelse: «menneske i loopen» fjerner ikke høyrisiko
En utbredt misforståelse er at høyrisiko-klassifisering forsvinner dersom et menneske tar den endelige beslutningen. Det stemmer ikke. Klassifiseringen avhenger av systemets funksjon, ikke av om det finnes menneskelig tilsyn.
Det menneskelig tilsyn gjør, er å oppfylle ett av kravene som følger av høyrisiko-klassifiseringen (artikkel 14). Men selve klassifiseringen utløses av bruksområdet, uavhengig av tilsynsmodellen.
Hva utløser høyrisiko-klassifisering i praksis?
VURDERINGSSKJEMA: ER REKRUTTERINGS-KI HØYRISIKO?
=================================================
System: [Systemnavn]
Vurdert av: [Navn, rolle]
Dato: [Dato]
1. BRUKSOMRÅDE
Faller systemets bruksområde inn under vedlegg III
(rekruttering, screening, vurdering av kandidater)?
[ ] Ja [ ] Nei
Hvis nei → systemet er trolig ikke høyrisiko under dette punktet.
Hvis ja → gå videre til punkt 2.
2. FUNKSJON
Beskriv kort hva systemet gjør:
[Fritekst]
3. PÅVIRKNING PÅ UTFALL
Påvirker systemet hvem som vurderes videre? [ ] Ja [ ] Nei
Rangerer eller scorer systemet kandidater? [ ] Ja [ ] Nei
Filtrerer systemet bort kandidater? [ ] Ja [ ] Nei
Brukes systemets output i beslutninger? [ ] Ja [ ] Nei
Hvis ja på ett eller flere → behandle som høyrisiko.
Hvis nei på alle → vurder om systemet likevel kan påvirke utfall indirekte.
4. KONKLUSJON
[ ] Høyrisiko – dokumentasjon og tilsyn kreves
[ ] Ikke høyrisiko – begrunnelse dokumentert
[ ] Usikkert – anbefaler å behandle som høyrisiko av forsiktighetshensyn
Begrunnelse: [Fritekst]
5. NESTE STEG
[ ] Opprett systemfil
[ ] Gjennomfør konsekvensvurdering (FRIA)
[ ] Vurder DPIA
[ ] Drøft med tillitsvalgte
[ ] Sett opp tilsynsrutine
Hva betyr høyrisiko-klassifisering i praksis?
Dersom rekrutteringssystemet er høyrisiko, utløser det følgende krav for virksomheten:
- Systemfil: Oppdatert dokumentasjon med beskrivelse av systemet, formål, leverandør og risikovurdering.
- Konsekvensvurdering (FRIA): Vurdering av konsekvenser for grunnleggende rettigheter før iverksetting.
- Menneskelig kontroll: Navngitt tilsynsperson med kompetanse, myndighet og kapasitet.
- Informasjonsplikt: Søkere skal informeres om KI-bruk i prosessen.
- Logging: Systemets beslutninger skal logges for etterkontroll.
- Drøfting: Tillitsvalgte skal involveres etter arbeidsmiljøloven.
Vanlige feil
- Stoler på leverandørens klassifisering. Leverandøren kan ha en annen vurdering enn det som er riktig for din brukskontekst. Du må vurdere selv.
- Antar at «menneske i loopen» fjerner kravene. Menneskelig tilsyn er et krav ved høyrisiko, ikke en unnslipning fra det.
- Dokumenterer ikke vurderingen. Selv om du konkluderer med at systemet ikke er høyrisiko, bør begrunnelsen dokumenteres.
- Glemmer å revurdere. Hvis bruken endres – for eksempel fra kun CV-parsing til rangering – endres også klassifiseringen.
Videre lesning
- Rekruttering
- KI i HR
- Rekrutterings-AI i Norge: risiko, dokumentasjonskrav og beste praksis
- Slik informerer du søkere om KI-bruk (eksempeltekst + versjonering)
- Overvåkning og ytelse
- Vurderinger og medvirkning
Sist oppdatert
2026-02-02