Googles AI-chatbot Gemini svarer nogle brugere med rent volapyk
Generativ AI til brug i AI-chatbots giver mange nye muligheder, men der er stadig masser af børnesygdomme i techgiganternes respektive løsninger. Nu rapporterer brugere om, at AI-chatbotten Gemini fra Google ind imellem besvarer spørgsmål med ren vrøvlesnak.
Googles Gemini-chatbot er et praktisk værktøj til at få hurtige svar eller håndtere komplekse opgaver. Men som enhver anden generativ AI er den også tilbøjelig til ind imellem at hallucinere – altså selv opfinde fakta til sine svar. Nu rapporterer brugere om en sær fejl, som de har oplevet.
Se også: Google integrerer Gmail, Maps og YouTube i AI-chatbotten Gemini
Gentager forvrøvlede ord og sætninger
I løbet af de sidste par dage er nogle Gemini-brugere løbet ind i et problem, hvor chatbotten spytter noget ud, som i virkeligheden er volapyk. I nogle tilfælde er det en række ord, der gentages, eller sætninger, der bliver mere og mere tilfældige og fulde af mærkelige tegn, efterhånden som teksten fortsætter.
Svarene er lange og har i nogle tilfælde intet at gøre med det, som brugeren har spurgt om. Fejlen kan forekomme både i webudgaven og i Gemini-appen til mobiler.
Heldigvis lader det til, at fejlen sker sjældent, og at den hurtigt forsvinder igen, så brugere kan efterfølgende godt få fornuftige svar ud af Gemini.
Se også: Nye AI-funktioner klar i Google Maps
Google har netop lanceret Gemini-app i Danmark
Der er ingen meldinger om, at fejlene skulle være observeret i Danmark. Her har Google netop lanceret deres Gemini-app til Android-mobiler. Dermed er det nu muligt at bruge chatrobotten sammen med Google Assistant.
Ikke eneste udfordring med Gemini
At Gemini ud af ingenting svarer brugere med volapyk er blot én af flere uheldige episoder, som har ramt Google den seneste tid. Da Google introducerede AI Overviews – en ny udgave af Googles søgemaskine, der inkorporerer Gemini i søgeresultaterne – viste et af de svar fra Gemini, som blev vist frem ved Google I/O-udviklerkonferencen i maj, sig at være forkerte. Og netop det problem er ret udbredt i AI-chatbots – at indholdet i dem ofte ikke er faktuelt korrekt og derfor skal faktatjekkes grundigt, inden det anvendes.
Kort efter blev Google ramt af endnu en uheldig episode, da “AI Overview”-funktionen fortalte brugere, at de kan bruge lim til at klistre ost på pizza og spise en sten om dagen. Det fik Liz Reid, der er chef for Googles søgemaskine, til at forsvare den nye funktion i et blogindlæg, hvor hun hævder, at AI-Overview generelt ikke “hallucinerer”, men i stedet nogle gange fejlfortolker, hvad der allerede findes på nettet.
Google oplevede også udfordringer med Geminis tekst-til-billede-værktøj, som genererede historisk ukorrekte billede af nazister
Se også: Nu kommer Googles chatbot på mobilen – Gemini-appen lander i Danmark