Foto: Shutterstock

Deepfake pornobilleder: “Det kan ramme hvem som helst”

Det sker for alle. Stjerner på popkulturens øverste tinder, politikere, instagrammere, helt almindelige mennesker og børn ender som statister i computergenereret porno. Men hvad er deepfake egentlig? Det har vi talt med en ekspert om.

Der bliver talt om det alle vegne i øjeblikket. Deepfakes. Computergenererede billeder og videoer, hvor man kan få kendte eller almindelige mennesker til tilsyneladende at sige og gøre hvad som helst. Især oplever uhyggeligt mange kvinder og piger fra alle samfundslag, at teknologien bliver brugt til at generere pornografisk indhold af dem uden deres samtykke.

Advokat og forperson for Medierådet for Børn og Unge, Miriam Michaelsen, er ekspert i digitale krænkelser og vold. Hun har været advokat for adskillige forurettede i sager om digitale sexkrænkelser blandt andet i den meget omtalte Umbrella-sag, hvor 334 unge blev dømt for at have videresendt digitalt krænkende materiale af en mindreårig pige. Advokaten ser i øjeblikket mange sager, hvor det krænkende materiale, der bliver delt, er AI-genereret. 

“Det, AI bringer til bordet, er, at det er sindssygt nemt at producere, og det er meget svært at skelne rigtigt fra falsk,” siger Miriam Michaelsen. 

Men hvad er deepfake porno helt præcist? Bare ordet ‘deepfake’ lyder som noget farligt, der rejser sig fra internettets mørkeste dyb for at narre os alle sammen. Og det er faktisk ikke meget langt fra sandheden.

Begrebet er en sammentrækning af ordet ‘deep learning’ og ‘fake’. ‘Deep learning’ er en undergenre under ‘machine learning’, altså maskinlæring, hvor en maskine bliver programmeret til at kunne huske relationer, den har ‘lært’. Vi taler altså om en form for kunstig intelligens. Det, der adskiller ‘deep learning’ fra andre former for kunstig intelligens og maskinlæring, er, at metoden er modelleret til at ligne en menneskehjerne. Så når deepfake-billeder eller videoer bliver skabt, er det denne her AI-menneskehjerne, der står bag.

Okay, så langt så godt. Når der dukker falske videoer op på nettet, hvor den tidligere amerikanske præsident Barack Obama kalder Donald Trump en ‘complete dipshit’, eller mere alvorligt videoer og billeder med falsk pornografisk materiale, så er de skabt af en computerhjerne. Men det er jo ikke computerhjernen, der finder på det falske materiale helt ud af det blå. Der er et menneske, der har fået ideen og sat processen i gang. Og det er de senere år blevet nemmere og nemmere for privatpersoner at få adgang til teknologien bag.

Faktisk er det så nemt, at hvis du googler ‘deepfake’, er resultat nummer to (efter wikipedia) en side, hvor du kan lave dine egne falske billeder og videoer. Det mærker advokat Miriam Michaelsen også i sit arbejde. 

“Det har eksisteret længe, men jeg kan godt se, at mængden af det er stigende. Det er nok, fordi det bliver nemmere og nemmere at lave. Det er 1-2-3 klik væk, fordi teknologien er så god og så hurtig,“ siger hun.

Det er blandt andet et problem, at det er så nemt at lave de her computergenererede billeder og videoer, fordi det udfordrer, hvorvidt vi kan stole på video-materiale i det hele taget. Donald Trump vil for eksempel kunne sige, at det bare er deepfake, når han afsløres i at have sagt et eller andet absurd eller faktuelt forkert på kamera. Det er et farligt hjælpemiddel i misinformation og falske nyheder. Men lige nu er det største problem, at teknologien i overvældende grad bliver brugt til at generere falskt pornografisk materiale af folk uden deres samtykke.

Ifølge The Guardian var 96 procent af alt deepfake-materiale, der lå på internettet i 2019, pornografisk. Og af det pornografiske materiale bestod hele 99 procent af kvinder og piger, der uden samtykke havde fået deres ansigter og kropsdele sat sammen med pornostjerners kroppe i seksuelt udfordrende situationer, så det så ud som om, det var kvinderne selv.

“Jeg har set sager med begge køn. Jeg har også set sager med børn, unge og gamle. Det kan ramme hvem som helst. Men i de sager, jeg støder på, er der en klar overvægt af piger og kvinder, som oplever det her,” siger Miriam Michaelsen. 

Det handler om kontrol

Men hvorfor laver folk det her materiale? Kan de bare ikke kontrollere deres liderlighed? Ifølge advokaten er der også andre motiver på spil.

“De sager, jeg har haft forbi mig, handler om, at nogen gerne vil have adgang til det, de ikke kan få på anden vis. Altså, hvis man ikke kan få denne her kvinde eller pige, så kan man i det mindste producere noget materiale. Eller også er det en form for magtdemonstration. Det handler også om, at når du producerer sådan noget materiale, så tager du kontrollen og magten fra et andet menneske,” siger Miriam Michaelsen. 

I juni 2023 fortalte generalsekretær i Red Barnet og tidligere politisk ordfører for Enhedslisten Johanne Schmidt-Nielsen om, hvordan hun i 2021 blev gjort opmærksom på, at der lå pornografisk deepfake indhold af hende på en pornoside. Indholdet, der blandt andet var af voldelig karakter, havde ligget på siden igennem en længere periode. I et opslag på Facebook beskrev Johanne Schmidt-Nielsen, hvordan hun oplevede at få frataget kontrollen på denne måde. Her lagde hun også vægt på, at det, at billederne var computerskabte, ikke gjorde oplevelsen mindre ubehagelig. 

“Det er grænseoverskridende at tænke på, at en masse mennesker kan have set billeder af mig uden tøj på og i seksuelle situationer, som de må have antaget er delt uden mit samtykke, uden at de har reageret på det og for eksempel anmeldt det eller kontaktet mig.” skrev hun.

“Og det føles truende, at en del af materialet er voldeligt […] Derudover er det ude af min kontrol. Det er billeder af mig, der fremstår ganske intime, men som jeg ikke har haft indflydelse på eller har haft mulighed for at stoppe.”

Miriam Michaelsen understreger også, at det, at materialet teknisk set er falskt, ikke gør stor forskel hverken for de forurettedes oplevelse eller i forhold til loven.

“Jeg tror også, vi har en grundlæggende udfordring med at få rigtig mange mennesker til at forstå, at selvom det er falskt, så har det konsekvenser for de afbildede. Jeg har set både politiet og folk omkring de forurettede reagere med at sige: “Det er jo ikke dig på billedet, så hvor slemt kan det være?” Men det har bare konsekvenser,” siger hun og forklarer, at det også har juridiske konsekvenser. 

“Lovgivningen er fuldstændig klar. Du må ikke dele indhold af andre for en bredere offentlighed, som ikke skulle have været dem for øje. Det er den straffelovsparagraf, der hedder 264d. Den gælder både, når det er ægte og falsk materiale. Og så er der bestemmelse for blufærdighedskrænkelse, paragraf 232. Det er jo også en blufærdighedskrænkelse både at producere og at dele sådan noget materiale af andre mennesker og lægge det offentligt ud på nettet.”

De paragraffer, som Miriam Michaelsen nævner, gælder, når offeret er over 18 år. Men hvis offeret er under 18 år, er konsekvenserne endnu større.

“Der er skærpede omstændigheder, hvis det er børn. Jeg ser jo også desværre en række sager med AI-genereret overgrebsmateriale af børn. Og børn kan ikke give samtykke til at blive brugt. Du kan ikke som 12-årig sige ja til, at nogen må producere seksuelt indhold med dig og dele det,” siger Miriam Michaelsen. 

Selv hvis et barn har sagt ja til at medvirke i nøgenbilleder eller andet pornografisk materiale, både ægte og deepfake, så er det altså stadigvæk ulovligt både at producere og dele. Gudskelov.

Generelt er det ikke kun offentlige personer som Johanne Schmidt-Nielsen, der oplever at blive ‘deepfaket’. I 2021 havde DR været i kontakt med 25 danske kvinder, som havde oplevet, at der var blevet delt manipuleret seksuelt materiale af dem på internettet uden deres samtykke. Ofte i en kontekst, der også indeholdt kontaktinformationer på kvinderne. Det er desværre en relativt udbredt oplevelse, at ofre for deepfake-krænkelser kontaktes adskillige gange af mennesker, som tror, materialet er ægte og eksempelvis efterspørger mere.

Dette skete også før kunstig intelligens var så avanceret, som den er i dag, men det er kun blevet nemmere og hurtigere i takt med den teknologiske udvikling. Og ingen kan vide sig sikre. Selv hvis der ikke ligger massevis af billeder af dig på internettet, som hvis du er Johanne Schmidt-Nielsen eller en instagrammer med en stor følgerskare, kan dette sagtens forekomme, fordi folk ikke skal bruge mere end eksempelvis dit profilbillede på Facebook.

Er der håb for fremtiden?

Så hvad kan man gøre, hvis man oplever det her? Ifølge Michaelsen er svaret ikke at slukke internettet eller forsøge at fjerne sig selv fuldstændig fra cyberspace. 

“Hvis man som privatperson oplever det her, skal man anmelde det til politiet. Man skal bevissikre, hvis man kan, ved at tage et screendump af billedet med URL-adressen, hvor det ligger. Og så skal man anmelde det til politiet på politi.dk,” siger hun. 

Hvad hvis man ikke selv er den forurettede, men støder på noget, der forestiller en anden person? Her er det om muligt endnu mere vigtigt at reagere, siger advokaten.

“Det er et kollektivt ansvar at stoppe det her. Hvis du støder på noget, hvor du tænker ‘det har vedkommende på ingen måde givet samtykke til,’ så skal du anmelde det. Det er det, jeg kalder ‘bystander-effekten’. Og det gælder både, hvis vi taler sexisme, chikane og krænkelser. Det er ikke kun den forurettedes ansvar at gøre noget, nogle gange er det lige så meget dem, der står ved siden af.”

Og det ansvar strækker sig endnu længere. Det strækker sig til de tech-aktører, som er involveret. Både dem, som tjener penge på at stille de værktøjer til rådighed, som bliver anvendt til at lave materialet, og dem, som tjener penge på den data, der genereres, når materialet bliver delt. De har ifølge Michaelsen et kæmpe ansvar for at holde indholdet væk. Lige netop her ligger håbet i denne ellers ret dystopiske problematik. For på dette område bliver der faktisk lige nu handlet i EU.

“The Digital Service Act træder i kraft lige om lidt, og den stiller krav til at platformene skal reagere hurtigt, hvis de bliver gjort bekendt med, at der ligger noget ulovligt. Og der er løsningen at fjerne det ulovlige materiale. DSA stiller også krav om, at det skal være nemt at anmelde ulovligt indhold. Lige nu vil det tage dig to klik at uploade noget på Pornhub, men være væsentlig mere kompliceret for dig at få det fjernet igen, og det er også en del af problemet,” siger Miriam Michaelsen. 

Så hvis du ser noget derude på det mørke internet, som ligner noget, der ikke er blevet givet samtykke til, så anmeld med det samme. Og fortæl alle dine venner, nevøer og niecer, at deepfake porno er ulovligt, selvom det er computerskabt. Så er vi bedre rustede til fremtiden.

Find mere om
Footer graphics