Transparens
Hvad er det?
Mange AI-systemer – især dem, der bruger maskinlæring eller generativ AI – træffer hurtige og komplekse beslutninger uden at forklare, hvordan de når frem til deres resultater. Men i takt med at AI får større indflydelse på vores liv, bliver det vigtigere end nogensinde, at mennesker forstår hvordan og hvorfor systemerne gør, som de gør.
AI kan lave fejl, forstærke fordomme eller give misvisende informationer, særligt hvis de er trænet på ufuldstændige eller skæve datasæt. Og hvis systemet fungerer som en "black box", hvor ingen – heller ikke udviklerne – forstår den præcise beslutningslogik, er det umuligt at kontrollere, rette fejl eller stille nogen til ansvar.
Transparens handler ikke nødvendigvis om, at alle borgere skal kunne læse kode eller forstå komplekse statistiske modeller. Det handler om, at eksperter, myndigheder og ansvarlige organisationer skal have adgang til at efterprøve, hvordan systemerne fungerer – og at brugerne får indsigt i, hvad AI-systemerne bygger deres svar eller vurderinger på.
Eksempler
Flere generative AI-modeller, som f.eks. ChatGPT og Googles Gemini, har været under kritik for manglende transparens om, hvordan de er trænet – og hvilke data de bygger deres svar på. Når man ikke ved, om en tekst er inspireret af videnskabelige artikler, sociale medier eller reklamer, er det svært at vurdere troværdigheden.
I EU har arbejdet med AI Act ført til krav om større åbenhed for såkaldte “foundation models”. Udviklere af store sprogmodeller bliver nu bedt om at dokumentere deres træningsdata og risikovurdere deres systemer – blandt andet for at sikre, at de ikke spreder misinformation eller er biased.
Samtidig har OpenAI gjort det muligt at se, hvilke plugins og tilføjelser en ChatGPT-model bruger i nogle professionelle versioner – et skridt i retning af større gennemsigtighed for avancerede brugere.
Hvad skal man overveje?
Overvej hvordan du kan forklare, hvad dine AI-systemer bygger på. Hvis du bruger generativ AI til f.eks. at skrive tekster, oversætte eller analysere data, bør du ofte gøre det klart, at output er automatisk genereret – og hvilke begrænsninger der er.
Gør det muligt for eksperter, etiske råd eller myndigheder at få adgang til at gennemgå dine modeller, hvis de bruges til kritiske formål. Og hvis dine AI-systemer træffer beslutninger om mennesker (ansættelser, økonomi, overvågning), bør du sikre, at både logik og datagrundlag kan efterprøves.