Amerikansk mor anklaget for at bruge deepfake til at skade datters rivaler

En amerikansk mor har efter sigende benyttet deepfake nøgenbilleder for at fjerne datters rivaler fra cheerleadingholdet. Se et eksempel på deepfake.

Amerikansk mor anklaget for at bruge deepfake til at skade datters rivaler

De fleste tilfælde af anvendelse af deepfakes handler jo om at skabe problemer for andre, men visse eksempler på, hvordan folk har brugt deepfakes, kan stadig få os til at løfte på øjenbrynene i forundring.

Mor lavede deepfake nøgenbilleder af datters cheerleaderrivaler

Philadelphia Inquirer og Patriot-News fra Harrisburg fortæller, at politiet har arresteret en kvinde i Chalfont, Pennsylvania ved navn Raffaela Spone. Hun skulle efter sigende have brugt deepfakes til, at skaffe sig af med datterens rivaler på cheerleadingholdet, Victory Vipers.

Ifølge politiet har Spone sendt AI-manipulerede billeder og videoer af teenagere til trænerne for, at vise dem nøgne eller med cigaretter eller alkohol i hånden. Politiet blev første gang gjort opmærksom på dette tilbage i juli måned, hvor et af ofrene fik beskeder fra et anonymt nummer.

Siden henvendte flere personer sig med lignende historier og politiet kunne knytte beskederne til Spone ved at spore numrene til en telemarketingsside og derefter til en IP-adresse hjemmehørende i Spones hjem. En gennemsøgning af hendes mobiltelefon gav beviser, der knyttede hende til telefonnumrene.

Læs også: Allerede i 2021 kan AI forvandle mobilindustrien

Moderens deepfake blev altså afsløret, men der er mange eksempler, hvor teknologien er ganske skræmmende. Herunder kan du se et eksempel på deepfake, hvor det er ret overbevisende.

Sigtes for cyberchikane

Spone kan nu sigtes for cyberchikane mod et barn og tilhørende overtrædelser. Politiet har ikke draget datteren ind i sagen, da der ikke er nogen beviser for, at hun kendte til sin mors handlinger. Sociale netværk som Facebook, TikTok og Twitter har allerede forbudt deepfakes, hvilket gør, at de ikke spredes lige så enkelt og hurtigt.

Det hindrer desværre ikke chikanekampagner og en sag som denne viser, at det er let at skabe deepfakes. Det er ikke nødvendigt at være ekspert for at skabe vellignende billeder. Man er i gang med at udvikle systemer til at afsløre deepfakes, men de fungerer jo kun, hvis man først mistænker og derefter når at afsløre billederne og personerne bag, inden skaden er sket og chikanen har fundet sted.

Læs også: Nyhedskanal i Sydkorea præsenterer AI-baseret nyhedsoplæser