Bots på sociale medier bliver sværere at skelne fra mennesker
Ifølge ny forskning fra CBS er det blevet meget lettere at bruge robotter til at skabe overbevisende misinformation, da de hurtige fremskridt inden for kunstig intelligens har gjort det stadig sværere at skelne robotprofiler fra menneskelige profiler på sociale medier.
Undersøgelsen, som blev offentliggjort på The Hawaii International Conference on System Sciences (HICSS), viste, at brugere på sociale medieplatforme som Twitter ofte fejlbedømmer robotprofiler som ægte menneskelige profiler. Dette skyldes de nye teknologiske muligheder, der gør det lettere at manipulere og sprede misinformation, hvilket ifølge forskerne udgør en trussel mod demokratiske samfund.
Forskerne oprettede deres egne falske Twitter-tråde om emnet krigen i Ukraine. Tråden indeholdt både ægte og genererede profiler samt tweets, der støttede begge sider. De falske profiler brugte computergenererede syntetiske profilbilleder, der var skabt ved hjælp af StyleGAN, og indlæg genereret af GPT-3, sprogmodellen bag ChatGTP, som for nylig er blevet opdateret til versionerne 3.5 og 4.0.
Se også: EU vil falske profiler til livs med gigant bøder
Botprofiler bliver opfattet som mere ægte
I undersøgelsen med 375 deltagere undersøgte forskerne, hvor svært det er at skelne mellem menneskelige og robotprofiler på Twitter. Resultaterne viste, at der var betydelige udfordringer med at skelne mellem ægte og kunstigt genererede profiler.
Faktisk opfattede mange deltagere de falske profiler som værende “mindre sandsynligt falske” end de ægte profiler.
Sippo Rossi, der er ph.d.-studerende ved Center for Business Data Analytics ved Institut for Digitalisering på CBS, forklarer, at de konti, der blev stillet flest spørgsmålstegn ved nøjagtighed og sandsynlighed, var dem der rent faktisk var rigtige mennesker bag.
“En af de ægte profiler blev fejlagtigt klassificeret som falsk af 41,5 procent af de deltagere, der så den. En af de bedst præsterende falske profiler blev imidlertid kun klassificeret som en robot af 10 procent”.
Se også: Hvilke data indsamler TikTok om mig?
Stol kun på mennesker du allerede kender
Sippo Rossi forklarer, at deres resultater tyder på, at den teknologi, der bruges til at generere falske profiler, er så avanceret, at det er svært at skelne dem fra ægte profiler.
“Lige nu er min anbefaling, at du kun skal stole på de mennesker på sociale medier, som du allerede kender”.
Se også: Cybersikkerhed er vigtigere end nogensinde
Sociale medier skal udvikle nye sikkerhedsforanstaltninger
Medforfatter Raghava Rao Mukkamala, leder af Center for Business Data Analytics ved Institut for Digitalisering på CBS, forklarer, at udbredelsen af deep learning-genererede profiler på sociale medier skaber betydelige udfordringer for samfundet og demokratiet.
De kan bruges til politisk manipulation, misinformation, cybermobning og cyberkriminalitet. “Autoritære regeringer oversvømmer de sociale medier med robotprofiler, der ser ud til at støtte deres sag for at manipulere informationsstrømmen. Det vil være afgørende for samfundet at overveje de potentielle konsekvenser af disse teknologier nøje og arbejde for at imødegå de negative virkninger”, råder han.
Rossi forklarer, at der skal nye metoder til at håndtere problematikken og næste skridt bliver at undersøge, om robotprofiler kan identificeres ud fra diskussioner i nyhedstråde, hvor falske og ægte profiler kommenterer på en specifik artikel i samme tråd. Han mener, at de firmaer, der står bag de sociale medieplatforme, også skal udvikle nye sikkerhedsforanstaltninger til at spotte og fjerne falske profiler.