Rapport: OpenAI brugt til at sprede propaganda og desinformation

Ifølge en rapport fra virksomheden selv, er AI-værktøjer fra OpenAI blevet brugt til at dele propaganda og desinformation.

Rapport: OpenAI brugt til at sprede propaganda og desinformation

OpenAI udgav torsdag sin første rapport nogensinde om, hvordan dets værktøjer til kunstig intelligens bruges til skjulte påvirkningsoperationer, og afslørede, at virksomheden havde afbrudt misinformationskampagner fra Rusland, Kina, Israel og Iran.

Læs også: ChatGPT tager EU-kandidattest til EU-valg 2024 – er venstreorienteret

Øget bekymring for spredelse af misinformation

Ondsindede aktører brugte virksomhedens generative AI-modeller til at skabe og sende propagandaindhold på tværs af sociale medieplatforme og til at oversætte deres indhold til forskellige sprog. Ingen af kampagnerne fik gennemslagskraft eller nåede ud til et stort publikum, ifølge rapporten.

I takt med at generativ AI er blevet en blomstrende industri, har der været udbredt bekymring blandt forskere og lovgivere over dens potentiale for at øge mængden og kvaliteten af online missinformation. Virksomheder inden for kunstig intelligens som OpenAI, der fremstiller ChatGPT, har med blandede resultater forsøgt at dæmpe disse bekymringer og sætte grænser for deres teknologi.

OpenAI’s 39 sider lange rapport er en af de mest detaljerede redegørelser fra en virksomhed inden for kunstig intelligens om brugen af dens software til propaganda. OpenAI hævder, at dets forskere har fundet og forbudt konti, der er forbundet med fem hemmelige påvirkningsoperationer i løbet af de sidste tre måneder, som var fra en blanding af statslige og private aktører.

I Rusland skabte og spredte to operationer indhold, der kritiserede USA, Ukraine og flere baltiske lande. En af operationerne brugte en OpenAI-model til at debugge kode og skabe en bot, der blev lagt ud på Telegram. Kinas påvirkningsoperation genererede tekst på engelsk, kinesisk, japansk og koreansk, som agenter derefter lagde ud på Twitter og Medium.

Iranske aktører genererede hele artikler, som angreb USA og Israel, og som de oversatte til engelsk og fransk. Et israelsk politisk firma ved navn Stoic drev et netværk af falske konti på de sociale medier, som skabte en række indhold, herunder indlæg, der beskyldte amerikanske studerendes protester mod Israels krig i Gaza for at være antisemitiske.

Læs også: Hvad er kunstig intelligens? Sådan ser fremtiden med AI ud

Generativ AI misbruges til propaganda

Flere af de misinformationsspredere, som OpenAI udelukkede fra sin platform, var allerede kendt af forskere og myndigheder. Det amerikanske finansministerium sanktionerede i marts to russiske mænd, som angiveligt stod bag en af de kampagner, som OpenAI opdagede, mens Meta også udelukkede Stoic fra sin platform i år for at overtræde sine politikker.

Rapporten fremhæver også, hvordan generativ AI inddrages i misinformationskampagner som et middel til at forbedre visse aspekter af indholdsgenerering, såsom at lave mere overbevisende indlæg på fremmedsprog, men at det ikke er det eneste værktøj til propaganda.

»Alle disse operationer brugte AI til en vis grad, men ingen brugte det udelukkende«, står der i rapporten. »I stedet var AI-genereret materiale blot en af mange typer indhold, de postede, sammen med mere traditionelle formater, såsom manuelt skrevne tekster eller memes kopieret fra hele internettet.«

Selvom ingen af kampagnerne resulterede i nogen nævneværdig effekt, viser deres brug af teknologien, hvordan ondsindede aktører finder ud af, at generativ AI giver dem mulighed for at opskalere produktionen af propaganda. At skrive, oversætte og sende indhold kan nu gøres mere effektivt ved hjælp af AI-værktøjer, hvilket sænker barren for at skabe misinformationskampagner.

I løbet af det seneste år har ondsindede aktører brugt generativ AI i lande over hele verden til at forsøge at påvirke politik og den offentlige mening. Deepfake-lyd, AI-genererede billeder og tekstbaserede kampagner er alle blevet brugt til at forstyrre valgkampe, hvilket har ført til øget pres på virksomheder som OpenAI for at begrænse brugen af deres værktøjer.

OpenAI har udtalt, at de med jævne mellemrum vil udgive lignende rapporter om skjulte påvirkningsoperationer samt fjerne konti, der overtræder deres politikker.

Læs også: Forbrugernes tillid til AI er helt i bund