Deepfakes, den nye form for digital manipulation

Det er lettere at tro på det, man ser, end på det, man får at vide. Det er derfor, at "deepfakes" er i stand til at udnytte din godtroenhed og uskyldighed.
Deepfakes, den nye form for digital manipulation
Valeria Sabater

Skrevet og kontrolleret af psykolog Valeria Sabater.

Sidste ændring: 14 april, 2023

Det ligner hekseri, men det er det ikke. Faktisk er det ren fremtidig ingeniørkunst, en anordning med kunstig intelligens, der er værd at medtage i Arthur C. Clarkes bøger. Deepfakes er de videoer, der er digitalt ændrede, og som gør det muligt at udskifte en persons ansigt med en anden persons ansigt.

Resultatet er så perfekt, at man kan afbilde en person, der siger eller gør noget, som vedkommende aldrig har sagt eller gjort.

De fleste bruger denne ressource til at lave vittigheder med deres venner og familie.

Hvem har trods alt ikke sat sit ansigt på en kendt persons ansigt som Lady Gaga, Leonardo DiCaprio, Captain America, Scarlett Johansson osv. på en sådan måde, at man pludselig befinder sig i en musikvideo, hvor man danser eller spiller hovedrollen i et klip fra en berømt film.

Denne teknologi kan dog bruges både til uskadelige og kriminelle formål. Et eksempel på sidstnævnte er Raffaela Spone, en 50-årig kvinde, der bor i en by i Pennsylvania. Denne husmor iværksatte en smædekampagne mod tre medlemmer af hendes datters cheerleaderhold. Hun lavede faktisk inkriminerende falske billeder af pigerne og delte dem.

Spone blev arresteret og anklaget for cybermobning af mindreårige. Hendes manipulerede billeder blev delt af skolen og sociale netværk. Heldigvis var politiet dog klar over, at de var blevet skabt med teknologi baseret på kunstig intelligens.

Et andet eksempel er en video af Obama, der cirkulerede på YouTube, hvor han sagde, at Donald Trump var en idiot. Det skabte en stor mediekontrovers. I virkeligheden var det ikke sandt, men det var et eksperiment fra University of Washington.

Det demonstrerede dog de virkninger, som manipulation af videoer gennem en algoritme med kunstig intelligens er i stand til at frembringe.

Kvinde foran en masse digitale tal

Deepfakes og vigtigheden af kritisk tænkning

Deepfakes er på mode. At sætte en persons ansigt på en anden persons krop for at sige eller gøre noget er faktisk ret genialt. Faktisk siger en legende, at hvis man siger ordet deepfake tre gange, vil Tom Cruise dukke op.

University of Victoria (Canada), Nottingham Trent University (Det Forenede Kongerige) og LUISS Guido Carli University (Italien) har imidlertid gennemført undersøgelser, der hævder, at fotografisk manipulation er noget, der er blevet gjort siden det 19. århundrede.

Ikke desto mindre har deepfakes indtog markeret et vendepunkt i dette fænomen. Fordi de i mange tilfælde bruges til kriminelle formål som f.eks. pornografi, falske nyheder og økonomisk svindel. Faktisk er problemet blevet så alvorligt, at der skal indføres nye love i den nærmeste fremtid.

I denne digitale tidsalder hører vildledning, hvad enten det er gennem falske nyheder eller billeder, til dagens orden. Desuden er de sociale konsekvenser heraf enorme. Derfor skal vi være forberedt på at opdage disse manipulerende metoder.

Når billedet har mere magt end ordene (og sandheden)

Det er lettere at tro på det, man ser, end det, man får at vide. Deepfakes ændrer sandheden ved at manipulere visuelle dokumenter. Et eksempel fandt sted i Venedig under pandemien. Der blev offentliggjort billeder af sorte svaner, der roligt bevægede sig gennem vandet i kanalerne.

Vi så også mærkeligt formede fisk i de oversvømmede gader. Intet af det var imidlertid sandt. Svanerne var et produkt af kunstig intelligens. I en verden af misinformation er deepfakes faktisk en stor allieret.

Pornografisk indhold og deepfakes

Deepfake-teknologi bruges ofte som et middel til chikane og hævn. Hvad kunne være bedre til denne form for adfærd end at skabe pornografiske videoer? Faktisk vælger folk simpelthen et klip og sætter det ansigt på, som de vil.

Derefter kommer næste skridt, nemlig at dele det. Faktisk bruges pornografiske videoer, der er skabt med deepfake-teknologi, i skoler og på arbejdspladser. Det er en meget effektiv form for chikane.

Hacking af virkeligheden

Deepfakes opstod i 2007, lidt før falske nyheder blev en del af dagens orden. På nuværende tidspunkt hacker og manipulerer alle disse tendenser med vores virkelighed.

De bruges i smædekampagner til at angribe offentlige personer. Ifølge en udgivelse i Crime Science Journal involverer deepfakes til kriminelle formål desuden enorme beløb hvert år.

Det anslås, at der i øjeblikket kan være mere end 50.000 deepfakes i omløb på internettet. Desuden giver vi troværdighed til mange af dem.

Kvinde ser mistroisk på telefon, der viser deepfakes

Hvad kan vi gøre ved denne type teknologi?

Lande som Kina har forbudt brugen af denne type kunstig intelligens. Desuden har Facebook oprettet en fond på mere end ti millioner dollars med henblik på at skabe værktøjer til at beskytte befolkningen mod misbrug af dem. Microsoft foreslår f.eks., at vi bruger deres Video Authenticator til at finde ud af, om en video eller et billede er blevet manipuleret.

Vi har to afsluttende kommentarer til dette emne. For det første bør man aldrig ty til denne type teknologi med henblik på chikane eller hævn. For det andet skal man udvikle evnen til at tænke kritisk, så man kan forholde sig til denne type meddelelser.

For i en verden, hvor virkeligheden i stigende grad manipuleres, er det kun et forsigtighedsfilter, der kan beskytte dig.


Alle citerede kilder blev grundigt gennemgået af vores team for at sikre deres kvalitet, pålidelighed, aktualitet og validitet. Bibliografien i denne artikel blev betragtet som pålidelig og af akademisk eller videnskabelig nøjagtighed.


  • Nguyen, Thanh & Nguyen, Cuong M. & Nguyen, Tien & Nguyen, Duc & Nahavandi, Saeid. (2019). Deep Learning for Deepfakes Creation and Detection: A Survey.
  • Kietzmann, J.; Lee, L. W.; McCarthy, I. P.; Kietzmann, T. C. (2020). “Deepfakes: Trick or treat?”. Business Horizons63 (2): 135–146. doi:10.1016/j.bushor.2019.11.006
  • Roose, Kevin (4 March 2018). “Here Come the Fake Videos, Too”. The New York Times. ISSN 0362-4331

Denne tekst er kun til informationsformål og erstatter ikke konsultation med en professionel. Hvis du er i tvivl, så konsulter din specialist.