AI-chatbots kan snydes af manipulerede billeder
I disse måneder prøver mange danskere kræfter med AI-chatbots som ChatGPT og Gemini, men pas på. Hackere har udviklet en ny metode til at manipulere billeder, så de gemmer på usynlige prompts for brugeren, som kan bruges til at misbruge AI-chatbots.
Den nye angrebstype kan resultere i datatyveri og identitetsmisbrug, når du bruger AI-chatbots.
I tvivl om, hvilken AI-chatbot der er bedst? Se hvilken AI-chatbot du bør vælge.
Se også: Gemini snart klar til Android Auto og Google TV
Skjulte AI-prompts i billeder kan misbruges af hackere
Forskere fra Trail of Bits har afsløret, hvordan hackere kan gemme skjulte AI-prompts i billeder, der først bliver synlige, når AI-systemer nedskalerer billederne. Teknikken udnytter såkaldt interpolation af billeder, som afslører særlige mønstre, der er usynlige for brugeren, men som er læsbare for algoritmen.

Dermed kan et tilsyneladende uskyldigt billede, som en bruger kan være kommet i besiddelse af på sociale medier, fra Google Billeder eller via e-mail, få en AI-chatbot til at udføre uønskede handlinger uden din viden.
Med metoden kan it-kriminelle for eksempel sende dine private kalenderdata til eksterne adresser ved at misbruge måden, som flere AI-chatbots håndterer nedskalering af billeder på. Bruger du en AI-chatbot som Gemini, har den formentlig adgang til din Google Kalender gennem din Google-konto.

Angrebet bygger på tidligere forskning i billedskalering som angrebsflade og er allerede demonstreret mod blandt andet Gemini CLI (Gemini via terminal), Vertex AI Studio og Google Assistent. Trail of Bits har endda frigivet værktøjet Anamorpher, der kan generere sådanne billeder.
Se også: Topliste: De bedste AI-chatbots
Hackere kan narre chatbots til at dele private oplysninger
Denne type angreb er værd at bide mærke i, fordi hackere kan gemme skjulte prompts i billeder, som AI-chatbots tolker som dine egne instruktioner, selvom du som bruger bare ser et helt normalt billede. Det kan betyde, at chatbotten uden varsel deler private oplysninger med uvedkommende. For almindelige brugere kan det føre til identitetstyveri, og for virksomheder kan det betyde tab af følsomme data.
Risikoen er alvorlig og reel, fordi mange AI-chatbots er koblet til arbejds- og kommunikationssystemer, hvilket kan føre til datatyveri og identitetsmisbrug. Traditionelle firewalls opdager ikke denne type angreb.
For at beskytte sig bør man være forsigtig med at uploade billeder fra usikre kilder, bruge AI-chatbots der kræver bekræftelse, før følsomme handlinger kan foretages, og holde øje med, om udbyderen af din foretrukne AI-chatbot tilbyder sikkerhedsforanstaltninger mod denne type angreb.
Perspektivering
Der findes rigtig mange forskellige AI-chatbots, men der er enorm forskel på kvaliteten af dem. Se de bedste AI-chatbots rangeret efter LMArena.ai.