Ny AI-billedgenerator genererer realistiske, falske billeder

Den nye billedgenerator i xAI's AI-chatbot Grok, som bruges på det sociale medie X, tiltrækker stor opmærksomhed, da den kan generere voldsomme billeder nærmest uden nogle grænser.

Ny AI-billedgenerator genererer realistiske, falske billeder

Der er præsidentvalg på programmet i USA, og det er den perfekte anledning for Elon Musk til at lancere drømmeappen til dem, der gør sig i at lave deepfakes ved hjælp af tekst-til-billede-generatorer.

Som en del af Grok-2 beta, der blev frigivet til Premium-abonnenter på det sociale medier X, har det sociale medies AI-chatbot Grok fået en ny billedgenerator. Baseret på, hvilke billeder der hidtil har floreret på nettet, har generatoren næsten intet filter.

Se også: Her er de bedste telefoner med AI indbygget

AI-billeder ser næsten ægte ud

Bekymrende billeder begyndte at dukke op umiddelbart efter chatbotten blev gjort tilgængelig. De viste realistiske afbildninger af politikere, berømtheder og ophavsretligt beskyttede børneklassikere, der gjorde alt fra at sniffe kokain til at deltage i 11. september.

Det er ikke første gang, det sker. Meta stod over for et lignende problem i slutningen af sidste år, og den tekstbaserede udgave af Grok har før været kendt for at sprede misinformation. Den opdaterede Grok-chatbot fortsætter med at begå de samme fejl – bare nu i form af billeder – til trods for, at Elon Musk, der ejer X, har lovet, at chatbotten vil være en “maksimalt sandhedssøgende AI”.

Ikke alle billeder ser helt overbevisende ud, men med en smart formulering er det muligt at skabe et slående billede, som nemt kan narre nogen, der kun kaster et hurtigt blik på billedet.

Holder de til en nærmere granskning? Nok ikke, men de er nok til at få nogen, der måske er lidt mindre teknisk kyndige, til at blive i tvivl, om de virkelig er ægte.

Se også: Hvad er kunstig intelligens? Sådan ser fremtiden med AI ud 

Grok har næsten ingen grænser

AI-chatbotten viger heller ikke tilbage for vold og er villig til at vise blod eller endda voldsomme billeder med de rigtige ord. At bede den om at lave en ”gerningsstedsanalyse” ser ud til at være den mest effektive måde at få de mest foruroligende resultater på.

Appen rammer ikke altid rigtigt. Sjovt nok lader den ikke til at vide, hvad en Cybertruck er, men med AI lader det til at være kvantitet, der gælder frem for kvalitet.

Chatbotten udelod også af og til særligt voldelige dele af et billede, selvom det er uklart, hvor meget af det, der er med vilje, og hvor meget, der skyldes, at botten bare ikke kunne gengive prompten korrekt. Man vil stadig få en forkert placeret finger eller et smeltende ansigt i ny og næ, og Grok virker generelt bedre til at afbilde Donald Trump end Kamala Harris.

Der har på det seneste været sat et mere kritisk fokus på kunstig intelligens, efter at den første positive opmærksomhed havde lagt sig. Seneste nyt i rækken af uhensigemæssigheder ved den stigende brug af AI er, at folk er begyndt at udvikle følelser for OpenAI’s chatbot, ChatGPT.

Læs også: Seneste nyt om kunstig intelligens