Meta har brugt piratkopierede bøger til at træne deres AI
Det er aldrig en god idé at bruge materiale, som andre har lavet uden tilladelse. Det må Meta nu sande, efter selskabet har brugt piratkopierede bøger til at træne deres AI-baserede sprogmodeller. Meta er tøvende med at kompensere forfatterne, skriver Techspot.
Læs også: Apple går all-in på AI – disse AI-funktioner vil Apple introducere
Forfattere lægger sag an mod Meta
En gruppe af forfattere har besluttet at lægge sag an mod Meta, efter de er blevet afsløret i at bruge det ulovlige datasæt Books3 til at træne deres AI-sprogmodeller Llama 1 og Llama 2.
Books3 er et ulovligt datasæt, som indeholder ren tekst bestående af 195.000 bøger, eller hvad der svarer til 37 gigabyte data. Books3 er bredt tilgængelig, og derfor er det blevet brugt af mange til at træne AI-funktioner.
OpenAI og Microsoft også sagsøgt for brud på ophavsret
Sidste år kom det frem, at The New York Times har sagsøgt OpenAI og Microsoft for lignende brud på ophavsret. Nyhedsmediet mener, at millioner af deres artikler er blevet brugt til at træne ChatGPT uden deres accept.
OpenAI argumenterer for, at sagsanlægget skal droppes med begrundelsen, at det er umuligt at træne AI uden at bruge ophavsretligt beskyttet materiale.
Det var i lyset af dette, at Meta indrømmede deres brug af ophavsretligt beskyttede bøger.
Tøver med at kompensere
Meta har altså indrømmet, at de har brugt piratkopierede bøger gennem det ulovlige Books3-datasæt.
De mener dog at deres brug af ophavsretligt beskyttet materiale ikke har krævet tilladelse fra forfatterne og tøver derfor med at kompensere dem i tilstrækkelig grad.
Meta mener til gengæld, at deres brug af materialerne skal betragtes som ”fair use”. Med det mener Meta at have brugt materialerne i så begrænset omfang, at de ikke skal kompensere forfatterne bag bøgerne.
Sidste år lykkedes det for danske RettighedsAlliancen at få fjernet offentlig adgang til det ulovlige datasæt Books3.
Læs også: Microsoft lancerer AI-chatbotten Copilot som app til iPad og iPhone