Risikovurdering og AI act
Hvad er det?
Når man udvikler eller bruger kunstig intelligens, er det afgørende at vurdere risikoen for, at noget går galt. AI kan være kraftfuldt og effektivt – men også uforudsigeligt, skævt eller direkte farligt, hvis det ikke anvendes med omtanke. Derfor bør alle AI-projekter ledsages af en systematisk risikovurdering.
EU’s nye AI-forordning, også kendt som AI Act, stiller netop krav om, at man forholder sig til risikoen. Forordningen deler AI-systemer op i fire risikoniveauer, som kan bruges både juridisk og praktisk til at analysere og forbedre systemer – uanset om man er underlagt loven eller ej.
Eksempler
De fire risikoniveauer i AI Act ser sådan ud:
Uacceptabel risiko: AI-systemer, der anses for at være grundlæggende farlige eller skadelige og derfor forbydes helt. Det gælder fx sociale score-systemer som i Kina, hvor borgere overvåges og belønnes eller straffes på baggrund af adfærd, eller AI der manipulerer børn eller sårbare grupper.
Høj risiko: AI-systemer, der har stor indflydelse på menneskers rettigheder og livsmuligheder, men som kan bruges under skærpede krav. Eksempler er ansigtsgenkendelse i det offentlige rum, AI i rekruttering eller algoritmer, der bruges i sundhedsvæsenet eller retsvæsenet. Her kræves dokumentation, transparens og kontrol.
Begrænset risiko: AI, der interagerer med mennesker og kan påvirke adfærd, men ikke træffer afgørende beslutninger. Det gælder fx chatbots eller anbefalingssystemer. Her kræves typisk deklarering og mulighed for fravalg.
Minimal risiko: AI-systemer med lav påvirkning, som ikke kræver særlig regulering. Det kan være stavekontrol, automatiske billedfiltre eller AI, der sorterer dokumenter internt i en organisation.
Hvad skal man overveje?
Selvom man ikke er juridisk forpligtet til at overholde alle dele af AI Act endnu (den er i skrivende stund ved at blive udrullet), er forordningens risikomodel et stærkt redskab til intern vurdering. Den kan bruges til at spørge: Hvor risikabelt er det AI-system, vi er ved at bygge eller bruge? Og: Hvad kan vi gøre for at reducere risikoen?
Overvej hvordan dine AI-løsninger påvirker mennesker – især i sårbare situationer. Jo højere risiko, desto større behov for dokumentation, gennemsigtighed og menneskelig kontrol. Det handler ikke kun om jura – men om ansvarlig teknologiudvikling, der tager højde for både fejl, bias og utilsigtede konsekvenser.
At forstå og anvende risikoniveauerne fra AI Act er en god måde at sikre, at AI skaber værdi uden at skabe skade.