ChatGPT svarer for upræcist og overholder ikke EU-regler
OpenAI’s indsats for at få ChatGPT til at komme med korrekte svar på prompts er endnu ikke nok til at sikre fuld overholdelse af EU’s dataregler. Det fremgår af en rapport fra en ChatGPT-taskforce tilknyttet til Det Europæiske Databeskyttelsesråd (European Data Protection Board eller EDPB).
“Selv om de foranstaltninger, der er truffet for at overholde gennemsigtighedsprincippet, er gavnlige for at undgå fejlfortolkning af ChatGPT’s output, er de ikke tilstrækkelige til at overholde princippet om datanøjagtighed”, oplyser taskforcen i en rapport, der blev offentliggjort på dens hjemmeside i fredags.
Se også: OpenAI vil udfordre Google med sin egen ChatGPT-søgemaskine
ChatGPT undersøges i flere lande
EDPB er oprettet for at sikre blandt andet privatlivets fred i EU. Her blev der i 2023 oprettet en særlig ChatGPT-taskforce. Det skete, efter flere lande med Italien i spidsen havde utrykt bekymring over udbredelsen af OpenAI’s AI-chatbot ChatGPT, der på rekordtid eksploderede i popularitet.
De forskellige undersøgelser af privatlivets fred ved brug af ChatGPT, der er iværksat af nationale vagthunde i flere medlemslande, er stadig i gang, fremgår det af rapporten. Det er derfor endnu ikke er muligt at komme med en endelig konklusion på resultaterne. De foreløbige resultater skal ses som fælles udgangspunkt for de nationale myndigheder.
Se også: Hvilken AI-chatbot skal jeg vælge? Se de 11 bedste chatbots
AI-chatbots kommer med opdigtede svar
“På grund af systemets probabilistiske natur (baseret på sandsynlighed og statistik) fører den nuværende træningsmetode faktisk til en model, som også kan producere forudindtagede eller opdigtede resultater”, står der i rapporten.
Der er altså overvejende sandsynlighed for, at ChatGPT – baseret på modellens brug af sandsynlighedsberegning – ind imellem vil komme med forkerte svar.
EU ser på sagen med stor alvor, for brugerne har nemlig ingen chance for at vide, hvad der er rigtigt og forkert, når de får svar fra ChatGPT. Rapporten oplyser ligefrem, at ”de resultater, som ChatGPT leverer, sandsynligvis bliver opfattet som faktuelt korrekte af slutbrugerne, herunder oplysninger om enkeltpersoner, uanset deres faktiske nøjagtighed.”
Se også: OpenAI og Meta på vej med AI, der kan ræsonnere
Kan sprede misinformation
Det, som ChatGPT taskforce-rapporten siger, er altså, at ChatGPT kan komme med helt forkerte eller direkte opfundne svar om enkeltpersoner eller ting: Svar, som modtagerne vil opfatte som sandfærdige.
Dermed kan ChatGPT altså være ansvarlig for at sprede misinformation om alt mellem himmel og jord. Derfor mener Det Europæiske Databeskyttelsesråd altså ikke, at ChatGPT er i mål med datanøjagtighed.
Se også: EU vedtager verdens første lov om kunstig intelligens
Skal ChatGPT trænes på nye måder?
Rapporten siger også direkte, at det er de træningsmetoder, som bruges til at træne ChatGPT, der altså har indbyggede fejlkilder. Det kan tolkes som om, at Det Europæiske Databeskyttelsesråd vil have OpenAI til at ændre sin måde at træne algoritmerne på for at leve op til EU’s krav.
Det kan meget vel blive en stor udfordring. OpenAI har endnu ikke kommenteret sagen.