OpenAI er bekymret: Folk udvikler følelser for ChatGPT

Den nyeste udgave af ChatGPT har vist sig at have en lidt uhensigtsmæssig indflydelse på visse brugere, da flere begynder at udvikle følelser for ChatGPT.

OpenAI er bekymret: Folk udvikler følelser for ChatGPT

GPT-4o blev introduceret som en stærkt forbedret sprogmodel, som nu er tilgængelig for dem, der betaler for ChatGPT Plus. Siden debuten har folk rost ChatGPT-4o for dens menneskelignende interaktioner. Selvom det lyder godt, har OpenAI bemærket et problem: Folk begynder at behandle chatbotten som et menneske og danne følelsesmæssige bånd.

Læs også: Seneste nyt om kunstig intelligens

Brugere udvikler følelser for ChatGPT

OpenAI har observeret, at folk bruger et sprog, der “kan tyde på, at de danner bånd”. OpenAI har altså fundet tilfælde, hvor folk bruger sprog over for AI-chatbotten, hvori de udtrykker et “fælles bånd”. Dette beskrives som dårlige nyheder af to hovedårsager.

Når ChatGPT-4o ser ud til at opføre sig som et menneske, kan brugerne for det første se bort fra alle de hallucinationer, der kommer ud af chatbotten. I denne sammenhæng er AI-hallucinationer dybest set de forkerte eller vildledende svar, som modellen genererer. Det kan ske på grund af fejlbehæftede eller utilstrækkelige træningsdata.

Kan påvirke det generelle menneskesyn

For det andet kan menneskelignende interaktioner med chatbotten reducere føre til færre virkelige sociale interaktioner mellem brugerne. OpenAI siger, at chatbot-interaktionerne potentielt kan være gavnlige for “ensomme individer”, men de kan også påvirke sunde relationer. Virksomheden bemærker desuden, at folk endda kan begynde at tale med mennesker med den opfattelse, at den anden person er en chatbot.

Alle disse bekymringer får nu virksomheden til at overvåge, hvordan brugerne udvikler følelsesmæssige bånd med ChatGPT-4o. OpenAI oplyser også, at de vil foretage justeringer af modellen, hvor det er nødvendigt.

Techgiganter såsom OpenAI, som står bag ChatGPT, har et stort etisk ansvar, når det kommer til eksempelvis ovenstående problemstilling.

Når brugere begynder at udvikle følelser for chatbots, kan det føre til potentielle skader som følelsesmæssig afhængighed, isolation eller forvrængede opfattelser af menneskelige relationer. Derfor er det vigtigt, at der er helt klare grænser for chatbotters adfærd, så de ikke gør mere skade end gavn.

Læs også: Seneste nyt om mobilteknologi og telebranchen