Ansvar ved fejl
Hvad er det?
AI-systemer – uanset om de er prædiktive, generative eller beslutningsunderstøttende – kan og vil lave fejl. Det kan være faktuelle unøjagtigheder, forkerte afgørelser, diskriminerende output eller skadelige anbefalinger. Spørgsmålet er: Hvem har ansvaret, når det sker?
Juridisk set er ansvaret ofte uklart, især når AI anvendes i komplekse økosystemer med mange aktører: udviklere, dataleverandører, systemintegratorer og brugere. Og selvom AI kan foregive at handle og “tænke” på egen hånd, kan den ikke stilles til ansvar som et juridisk subjekt.
Etisk rejser det også svære spørgsmål: Har den organisation, der implementerer AI’en, et særligt ansvar for at forudse og forebygge fejl? Eller er det udviklerens ansvar? Eller brugeren, der tolker svaret? Uden klare rammer risikerer vi, at ansvaret skubbes rundt – og i sidste ende tabes.
Eksempler
Både Amazon og Google har måttet trække AI-baserede ansættelses- eller annonceværktøjer tilbage, fordi de diskriminerede visse grupper. Her blev det tydeligt, at virksomheden bag teknologien ikke kan fraskrive sig ansvaret, selv om det var systemet, der lavede fejlen.
I 2024 lancerede Google funktionen AI Overviews, der skulle give brugerne hurtige, AI-genererede svar på deres søgeforespørgsler. Kort efter lanceringen blev funktionen kritiseret for at give fejlagtige og til tider farlige oplysninger, såsom råd om at spise sten eller bruge lim på pizza.
Hvad skal man overveje?
Hvis du bruger AI i din organisation, bør du afklare hvem der har ansvar for hvad – både teknisk, juridisk og etisk. Lav klare procedurer for, hvordan fejl håndteres, og hvordan brugere kan klage eller få sagen genvurderet af et menneske.
Du bør aldrig bruge AI til afgørende beslutninger uden mulighed for menneskelig indgriben. Og du bør være opmærksom på, at ansvar ikke bare handler om skyld – men også om at tage ansvar for konsekvenserne af den teknologi, du sætter i verden.
En ansvarlig AI-strategi kræver mere end teknologi. Den kræver ledelse, etik og gennemsigtighed.