KI i rekruttering: når blir det høy risiko under KI-forordningen?

EU KI-forordningen klassifiserer KI-systemer brukt i rekruttering som potensielt høyrisiko. Men ikke all bruk av KI i ansettelsesprosesser utløser automatisk de strengeste kravene. Denne artikkelen forklarer hvilke bruksmønstre som typisk faller i høyrisikokategorien, hva som kan falle utenfor, og hvordan du vurderer dine egne systemer.

Merk: Denne artikkelen er veiledende og erstatter ikke en konkret juridisk vurdering av virksomhetens egne systemer.

Hva forordningen sier

KI-forordningens vedlegg III (Annex III) lister eksplisitt opp KI-systemer brukt i arbeidslivet. Innen rekruttering pekes det på systemer som brukes til:

  • Utlysning av ledige stillinger og målrettet distribusjon av annonser.
  • Filtrering og screening av søknader.
  • Vurdering av kandidater i utvelgelses- eller intervjuprosessen.
  • Beslutninger om ansettelse.

Begrunnelsen for høyrisiko-klassifisering er at slike systemer påvirker personers tilgang til arbeid og inntekt – en grunnleggende rettighet.

Bruksmønstre som typisk er høyrisiko

Automatisk screening og rangering

Hvis KI-systemet filtrerer bort kandidater eller rangerer søkere basert på CV-innhold, nøkkelord eller andre kriterier, er dette typisk høyrisiko. Dette gjelder selv om et menneske tar den endelige beslutningen – det avgjørende er om systemets output påvirker hvem som vurderes videre.

Eksempel: Et rekrutteringssystem analyserer 200 søknader og presenterer de 20 «best matchede» for rekruttereren. De 180 kandidatene som ikke vises, er i praksis filtrert bort av KI-systemet.

Videointervjuer med analyse

Systemer som analyserer kandidaters ansiktsuttrykk, stemme, ordvalg eller kroppsspråk under videointervjuer er høyrisiko. Slike systemer kan også berøre forbudte praksiser (artikkel 5) dersom de forsøker å utlede følelser fra biometriske data.

Personlighetstester med KI-scoring

Når KI brukes til å tolke eller score personlighetstester, og resultatene påvirker hvem som går videre i prosessen, er dette normalt høyrisiko. Systemet trekker slutninger om egenskaper som er vanskelige å etterprøve, og konsekvensene for kandidatene er vesentlige.

Matching-algoritmer

Systemer som automatisk matcher kandidater mot stillinger basert på profiler, preferanser eller historiske data kan være høyrisiko, avhengig av hvor stor innflytelse matchingen har på hvem som faktisk vurderes.

KI-basert referansesjekk

Verktøy som automatiserer og analyserer referansesjekk ved hjelp av KI faller i kategorien høyrisiko dersom resultatene brukes som grunnlag for ansettelsestbeslutninger.

Bruksmønstre som kan falle utenfor høyrisiko

Ren administrativ støtte

Hvis KI kun brukes til å organisere søknader i mottaksfase, sende automatiske bekreftelser eller planlegge intervjutider uten å påvirke utvelgelsen, er dette normalt ikke høyrisiko. Systemet har ingen innflytelse på hvem som vurderes.

Enkel CV-parsing (datauttrekk)

En CV-parser som trekker ut kontaktinformasjon og strukturerer data uten å rangere, score eller filtrere kandidater, faller trolig utenfor. Men grensen er flytende – om parseren i tillegg tilordner kompetansekategorier som brukes i søk, kan den bevege seg mot høyrisiko.

Tekstgenerering for stillingsannonser

KI-verktøy som hjelper med å skrive stillingsannonsetekster uten å påvirke utvelgelsen av kandidater, er normalt ikke høyrisiko i forordningens forstand.

Grensetilfeller og vurderingskriterier

Mange systemer befinner seg i gråsoner. Følgende spørsmål kan hjelpe vurderingen:

SpørsmålHvis ja →
Påvirker systemets output hvem som går videre til neste steg?Peker mot høyrisiko
Brukes KI-output som beslutningsgrunnlag, direkte eller indirekte?Peker mot høyrisiko
Ville kandidaten blitt vurdert annerledes uten systemet?Peker mot høyrisiko
Kan systemet i praksis utelukke kandidater fra prosessen?Peker mot høyrisiko
Er systemets rolle kun praktisk tilrettelegging uten påvirkning på utfall?Peker mot lavere risiko

En tommelfingerregel

Hvis systemet påvirker hvem som vurderes eller hvordan de vurderes, bør det som hovedregel behandles som høyrisiko. Hvis systemet kun påvirker når eller hvordan effektivt prosessen gjennomføres uten innflytelse på utfall, kan det falle utenfor.

Vanlig misforståelse: «menneske i loopen» fjerner ikke høyrisiko

En utbredt misforståelse er at høyrisiko-klassifisering forsvinner dersom et menneske tar den endelige beslutningen. Det stemmer ikke. Klassifiseringen avhenger av systemets funksjon, ikke av om det finnes menneskelig tilsyn.

Det menneskelig tilsyn gjør, er å oppfylle ett av kravene som følger av høyrisiko-klassifiseringen (artikkel 14). Men selve klassifiseringen utløses av bruksområdet, uavhengig av tilsynsmodellen.

Hva utløser høyrisiko-klassifisering i praksis?

VURDERINGSSKJEMA: ER REKRUTTERINGS-KI HØYRISIKO?
=================================================

System: [Systemnavn]
Vurdert av: [Navn, rolle]
Dato: [Dato]

1. BRUKSOMRÅDE
   Faller systemets bruksområde inn under vedlegg III
   (rekruttering, screening, vurdering av kandidater)?
   [ ] Ja  [ ] Nei

   Hvis nei → systemet er trolig ikke høyrisiko under dette punktet.
   Hvis ja → gå videre til punkt 2.

2. FUNKSJON
   Beskriv kort hva systemet gjør:
   [Fritekst]

3. PÅVIRKNING PÅ UTFALL
   Påvirker systemet hvem som vurderes videre?     [ ] Ja [ ] Nei
   Rangerer eller scorer systemet kandidater?        [ ] Ja [ ] Nei
   Filtrerer systemet bort kandidater?               [ ] Ja [ ] Nei
   Brukes systemets output i beslutninger?           [ ] Ja [ ] Nei

   Hvis ja på ett eller flere → behandle som høyrisiko.
   Hvis nei på alle → vurder om systemet likevel kan påvirke utfall indirekte.

4. KONKLUSJON
   [ ] Høyrisiko – dokumentasjon og tilsyn kreves
   [ ] Ikke høyrisiko – begrunnelse dokumentert
   [ ] Usikkert – anbefaler å behandle som høyrisiko av forsiktighetshensyn

   Begrunnelse: [Fritekst]

5. NESTE STEG
   [ ] Opprett systemfil
   [ ] Gjennomfør konsekvensvurdering (FRIA)
   [ ] Vurder DPIA
   [ ] Drøft med tillitsvalgte
   [ ] Sett opp tilsynsrutine

Hva betyr høyrisiko-klassifisering i praksis?

Dersom rekrutteringssystemet er høyrisiko, utløser det følgende krav for virksomheten:

  • Systemfil: Oppdatert dokumentasjon med beskrivelse av systemet, formål, leverandør og risikovurdering.
  • Konsekvensvurdering (FRIA): Vurdering av konsekvenser for grunnleggende rettigheter før iverksetting.
  • Menneskelig kontroll: Navngitt tilsynsperson med kompetanse, myndighet og kapasitet.
  • Informasjonsplikt: Søkere skal informeres om KI-bruk i prosessen.
  • Logging: Systemets beslutninger skal logges for etterkontroll.
  • Drøfting: Tillitsvalgte skal involveres etter arbeidsmiljøloven.

Vanlige feil

  • Stoler på leverandørens klassifisering. Leverandøren kan ha en annen vurdering enn det som er riktig for din brukskontekst. Du må vurdere selv.
  • Antar at «menneske i loopen» fjerner kravene. Menneskelig tilsyn er et krav ved høyrisiko, ikke en unnslipning fra det.
  • Dokumenterer ikke vurderingen. Selv om du konkluderer med at systemet ikke er høyrisiko, bør begrunnelsen dokumenteres.
  • Glemmer å revurdere. Hvis bruken endres – for eksempel fra kun CV-parsing til rangering – endres også klassifiseringen.

Videre lesning

Sist oppdatert

2026-02-02