Bias og diskrimination
Hvad er det?
Bias eller diskrimination er muligvis den absolut største udfordring ved brug af moderne kunstig intelligens, som baserer sig på statistik og data. Problemet er at AI bliver trænet på data, og disse data repræsenterer aldrig virkeligheden en-til-en. Nogle gange fordi data er mangelfulde og andre gange, fordi data spejler menneskelige biases, som også er til stede i den virkelige verden.
Når man udvikler eller implementerer AI systemer kan man minimere biases ved at være grundig i indsamling og forberedelse af data, men det er umuligt at komme alle biases til livs i kunstig intelligens. Mennesker, samfund og holdninger er forskellige og derfor er det filosofisk og praktisk umuligt, at lave en global AI som bias-frit repræsenterer alle holdninger og mennesker i verden.
Eksempler
Prøv at bede din foretrukne gen-AI model om at lave billeder af forskellige professioner. Du vil hurtigt opdage, at der er både historiske og kulturelle biases i, hvordan forskellige professioner fremstilles. Eksempelvis er læger ofte hvide ældre mænd, mens sygeplejersker er unge kvinder.
Amazon forsøgte for nogle år siden at lave en rekrutterings-AI, som viste sig at være biased mod kvinder. Sandsynligvis har den været trænet på eksisterende data fra Amazons HR-afdeling – data som viser, at mænd historisk set typisk klarer sig bedre i og tjener flere penge end kvinder hos Amazon.
I Holland måtte en regering gå af efter, at det blev afsløret at skattevæsenet havde udviklet en AI, som skulle finde sociale bedragere. Det viste sig, at AI’en primært straffede folk med anden etnisk oprindelse, fordi denne gruppe statistisk og historisk set oftere var involveret i sager om socialt bedrageri.
Hvad skal man overveje?
Overvej altid og test gerne om der kunne være biases i de AI’er du arbejder med.Hvis du træner din egen AI ,bør du altid tænke over, hvordan data er udvalgtHvis du arbejder med generativ AI, bør du tænke over at modvirke biases dine prompts. Skriv f.eks. ”kvindelig læge” i stedet for bare ”læge”, når du skal lave billeder.
Pas på med at automatisere vigtige beslutninger, hvis der er risiko for systematisk bias. Særligt hvis det ender med, systemet kommer til at krænke grundlæggende menneskerettigheder.