top of page

Sandhed og troværdighed

Hvad er det?

I takt med at generativ AI bliver bedre og mere udbredt, bliver det også sværere for almindelige mennesker at gennemskue, hvad der er ægte, og hvad der er kunstigt skabt. AI kan producere tekster, billeder, videoer og stemmer, som er næsten umulige at skelne fra virkeligheden – og det rejser store spørgsmål om sandhed, tillid og ansvar.


Det er ikke kun et samfundsproblem – det er også noget, som virksomheder, organisationer og enkeltpersoner, der anvender AI, bør tage alvorligt. Dels har man et etisk ansvar for ikke at bidrage til misinformation og forvirring i offentligheden, dels risikerer man at skade sin egen troværdighed, hvis man bruger AI på måder, der opleves som manipulerende eller uærlige.


I nogle tilfælde kan det være helt legitimt at bruge AI-genereret indhold – men kun hvis man er tydelig omkring det og sikrer, at indholdet ikke vildleder.

Eksempler
  • Børns Vilkår lavede i 2023 en kampagne om vold mod børn, hvor man brugte AI-genererede billeder af børn, der havde tydelige tegn på overgreb. Her var AI en måde at undgå at bruge rigtige børn i sårbare situationer – og fordi det var klart deklareret, blev kampagnen generelt opfattet som ansvarlig og respektfuld.


  • Anderledes gik det for Amnesty International, der lavede en Instagram-kampagne med AI-genererede billeder af politivold i Colombia. Da det kom frem, at billederne ikke var autentiske, mistede kampagnen troværdighed, og Amnesty blev kritiseret for at underminere sin egen dokumentariske autoritet. Kampagnen blev trukket tilbage – et tydeligt eksempel på, hvor galt det kan gå, når AI bruges uden at overveje i hvlken sammenhæng man anvender teknologien.


  • Et tredje eksempel er Dansk Folkepartis video med en falsk Mette Frederiksen, der afskaffer pinsen. Nogle tolker det som satirisk politisk kommunikation, mens andre ser det som manipulation og kropslig krænkelse. Diskussionen viser, hvor mudret grænserne er blevet, når politikere bruger AI – og hvor vigtigt det er at være bevidst om konsekvenserne for både individ og offentlighed.

Hvad skal man overveje?
  • Overvej altid, hvordan AI-indhold kan blive opfattet af modtagerne. Er der risiko for, at nogen bliver vildledt – og hvordan kan du minimere den risiko? Tænk over konteksten, og vær særlig varsom i politiske, journalistiske og menneskerettighedssammenhænge.


  • Deklarér tydeligt, når du bruger AI-genereret indhold – både for etik og for din egen troværdighed. Vær parat til at forklare hvorfor du bruger AI, og hvordan det er skabt. Og spørg dig selv: Hvilken sandhed bidrager jeg til – og hvilken tillid risikerer jeg at undergrave?


I en tid, hvor alt kan fabrikeres, bliver ærlighed og åbenhed de vigtigste byggesten for digital tillid.

Peter Svarre - petersvarre.dk - Nørrebrogade 110A, 1.tv, 2200 København N, tlf: 40409492, mail: peter@petersvarre.dk

bottom of page