ChatGPT misbruges af cyberkriminelle

AI-bots som ChatGPT kan være en stor hjælp for hackere til programmering af malware og målrettede phising-mails, advarer eksperter.

ChatGPT misbruges af cyberkriminelle

Både når det handler om at skrive essays og analysere data, kan ChatGPT gøre arbejdet lidt lettere for mange. Men det gælder også for cyberkriminelle.

Sergey Shykevich, en førende forsker i ChatGPT hos cybersikkerhedsselskabet Checkpoint Security, har allerede oplevet, at cyberkriminelle har udnyttet AI’en til at generere kode, der kan bruges i et ransomwareangreb.

Se også: Derfor er IT sikkerhed vigtig som aldrig tidligere

ChatGPT kan hjælpe hackere med kodning

Shykevichs team begyndte at undersøge muligheden for, at AI’en kunne bruges til kriminalitet på nettet allerede i december 2021. Ved at bruge AI’ens store sprogmodel genererede de phising-mails og skadelig kode. Da det stod klart, at ChatGPT kan bruges til ulovligheder, ville teamet undersøge, om det kun gik i teorien, eller om de kunne finde frem til ”the bad guys using it in the wild”.

Det er ikke let at afgøre, om en skadelig e-mail i indbakken er skrevet af ChatGPT, så teamet måtte ud på dark web for at se, hvordan ChatGPT blev brugt.

21. december fandt teamet de første beviser på, at cyberkriminelle brugte chatbotten til at generere et pythonscript, der kunne bruges i et malwareangreb.

Koden havde nogle fejl, fortæller Shykevich, men det meste var korrekt: “Det interessante er, at de fyre, der har sendt det, aldrig havde udviklet noget før”.

Shykevich fortæller, at ChatGPT og Codex, en OpenAI-tjeneste, der kan skrive kode for udviklere, gør det muligt for alle at lave skadelig kode, også selvom man ingen erfaring har med det i forvejen.

Se også: Hvad kan man med kunstig intelligens?

Kan skabe langt flere og mere målrettede fupmails

Justin Fier, chef for sikkerhedsselskabet Cyber Intelligence & Analytics at Darktrace siger til Insider, at barren allerede er lav, når det handler om phising-angreb. ChatGPT kan gøre det endnu lettere for folk at skrive massevis af målrettede fuskmails på en effektiv måde, så længe de har en god beskrivelse til botten.

I takt med at cyberkriminelle bruger tjenester som ChatGPT i sine angreb, bliver det også diskuteret, hvorvidt selskaberne bag den slags AI-bots skal stilles til ansvar, når de bruges til kriminelle handlinger.

 

Redaktionen har dækket den videre fortælling

Siden vi publicerede denne historie er der kommet nyt i sagen. Steen Jørgensen valgte at gå videre med sagen. 16/2/2023 gik vi videre med sagen; Google-ansatte ude med hård kritik af ChatGPT-konkurrenten – Du finder artiklen her. Redaktionen har fingeren på pulsen. Se seneste nyt her.