EU-regler for AI kan få OpenAI til at forlade Europa

EU og Google indgår pagt om regler for AI, mens virksomheden bag ChatGPT siger, at reglerne kan få få dem til at forlade Europa.

EU-regler for AI kan få OpenAI til at forlade Europa

Googles CEO Sundar Pichai og EU-kommissær for det interne marked, Thierry Breton, har indgået en indledende aftale om at udvikle frivillige regler for AI, mens vi venter på EU-regler på området.

I en udtalelse på sociale medier påpeger Breton, at de to har indgået aftalen om at udvikle en såkaldt AI Pact på sine organisationers vegne.

Se også: Hvad kan man med kunstig intelligens?

AI skal respektere databeskyttelse

De forventer, at alle store europæiske og ikke-europæiske AI-aktører også skal være med ombord.

“Vi forventer, at teknologien i Europa respekterer alle vores regler om databeskyttelse, onlinesikkerhed og kunstig intelligens,” tilføjer Breton. “I Europa er det ikke bare at vælge og vrage. Jeg er glad for, at Sundar Pichai anerkender dette, og at han er forpligtet til at overholde alle EU-regler.”

Den AI Act, der ligger som forslag, blev påbegyndt af EU Kommissionen i 2021 og ligger på nuværende tidspunkt hos Europa Parlamentet. Parlementet forventes at stemme om forslaget i næste måned. Derefter skal forslaget også godkendes i EU Rådet.

Se også: De mest smarte telefoner

Kan presse ChatGPT ud af Europa

Blot timer efter Bretons udmelding om et positivt møde med Pichai, kunne Reuters rapportere om kommentarer fra CEO for OpenAI, Sam Altman, hvor han siger, at det første udkast af den omtalte AI Act vil føre til overregulering og han forventer, at den bliver trukket tilbage.

Samtidig siger Altman, at selskabet overvejer at forlade Europa, hvis de ikke mener at kunne leve op til de kommende regler.

At AI skal reguleres, er de dog enige i, men det er på et andet plan. Sam Altman, Greg Brockman og Ilya Sutskever, der står bag OpenAI, har fornylig forklaret, at der er behov for, at ”superintelligent” AI reguleres af en pendant til Det Internationale Atomenergiagentur, som findes inden for forskningen i og brugen af atomkraft for at sikre, at teknologien ikke anvendes til udvikle noget, der kan koste menneskeliv.

Der bør være et organ, der kan ”inspicere systemer, kræve revisioner, teste om sikkerhedsstandarderne er overholdt og indføre restriktioner for udbredelsesgrader og sikkerhedsniveauer” for at reducere den “eksistentielle risiko”, som sådanne systemer kan udgøre, lyder det.