Mennesker i loopet
Hvad er det?
AI-systemer er kraftfulde, men ikke ufejlbarlige. De kan lave både tilfældige fejl og mere systematiske fejl som bias og fejltolkninger. Derfor er det ofte nødvendigt, at der er et menneske "i loopet" – altså en person, der enten overvåger, godkender eller har mulighed for at gribe ind, hvis noget går galt. Det gælder især i sammenhænge, hvor fejl kan få alvorlige konsekvenser for mennesker.
Men det er vigtigt at forstå, at menneskelig involvering ikke altid er nødvendig. I systemer med lav risiko – som fx stavekontrol, sortering af billeder eller simple anbefalinger – kan det være helt forsvarligt at lade systemet køre uden menneskelig indblanding. Det handler om at vurdere konteksten og risikoniveauet.
Eksempler
I sundhedssektoren anvendes AI til at analysere medicinske billeder og patientdata for at hjælpe læger med at diagnosticere sygdomme og udvikle behandlingsplaner. Dette omfatter anvendelser inden for radiologi, patologi, neurologi og mere. Selvom AI kan forbedre diagnosticeringshastigheden og nøjagtigheden, er det afgørende, at læger og sundhedspersonale stadig er involveret i processen for at sikre korrekt fortolkning og beslutningstagning.
Der er dokumenterede tilfælde, hvor AI-algoritmer anvendt i ansættelsesprocesser har udvist bias, hvilket har ført til diskrimination mod visse befolkningsgrupper baseret på data såsom navne eller postnumre. Dette har resulteret i, at kvalificerede kandidater er blevet udelukket fra jobmuligheder på grund af deres etniske baggrund eller køn. For at undgå sådanne situationer er det vigtigt, at mennesker er involveret i rekrutteringsprocessen for at overvåge og korrigere AI's beslutninger.
Hvad skal man overveje?
Hvis du bruger AI til søgning, er det vigtigt at tjekke de kilder, AI’en henviser til – eller at finde kilder selv, da AI ofte hallucinerer eller gætter. Bruger du AI til at generere tekst, bør du dobbelttjekke fakta og navne, før du publicerer noget.
Bruger du AI-chatbots i kundeservice eller borgerkontakt, bør det altid være muligt for brugeren at komme i kontakt med et menneske – især hvis svaret er utilfredsstillende eller uforståeligt. Der skal være en sluse til menneskelig hjælp, som sikrer, at ingen "sidder fast" i automatiseringen.
Ved automatisering af beslutninger, som fx udvælgelse af kandidater til job, tildeling af ydelser eller risikovurderinger, er det afgørende, at der er menneskelig kontrol og mulighed for indgriben. Uden det risikerer man at forstærke fejl og uretfærdigheder, fordi systemerne kører videre uden nogen til at opdage eller stoppe dem.
Brug AI med respekt for både teknologiens muligheder og begrænsninger. Nogle gange kan systemet godt køre selv – men ofte er det menneskelige blik den bedste garanti for kvalitet, retfærdighed og ansvarlighed.