AI-kontrolleret drone tilsidesatte menneskelig operatør i simulation
Under en præsentation for nylig ved Future Combat Air and Space Capabilities Summit diskuterede Col Tucker Hamilton, USAF’s chef for AI Test and Operations, fordele og ulemper ved selvstyrende våbensystem.
Under fremlæggelsen delte han en simuleret test med en AI-kontrolleret drone og forklarede, at AI’en udviklede uforudsete strategier for at må sine mål – tilmed at angribe amerikansk mandskab og infrastruktur.
Se også: Postnord bringer pakker ud med droner
AI tog sin egen drastiske beslutning
I simulationen var AI’en trænet til at identificere og ramme trusler fra jord-til-luft-missiler. En menneskelig operatør tog den endelige beslutning om at angribe målene eller ej, men AI’en lærte, at den scorede point ved at eliminere de identificerede trusler, hvilket gjorde, at den tilsidesatte operatørens beslutning.
For at nå sit mål gik AI’en så langt, at den ”tog livet af” operatøren eller ødelagde kommunikationstårnet, der blev brugt til kommunikationen mellem operatør og drone.
Se også: Test af droner til sygetransport
Flyvevåbnets forklaring af hændelsen
Efter offentliggørelsen af historien fastslog en talsperson fra Flyvevåbnet, at en sådan test aldrig har fundet sted, og at kommentarerne fra Col Tucker Hamilton blev taget ud af sin kontekst. Samtidig bekræftede Flyvevåbnet, at de bruger AI-teknologi på en etisk og ansvarsfuld måde.
Col Tucker Hamilton er kendt for sit arbejde som Operations Commander for den 96. Test Wing af det amerikanske Flyvevåben samt som chef for AI Test and Operations. Den 96. Test Wing har fokus på at teste forskellige systemer, herunder AI, cybersikkerhed og medicinske fremskridt. Tidligere har de skabt overskrifter ved at udvikle Autonomous Gound Collision Avoidance Systems (Auto-GCAS) til F-16 fly.
Se også: Opkoblede droner redder liv
AI kan forårsage stor skade
Hamilton anerkender det store potentiale, AI har til at forandre verden, men han fremhæver også, at AI er nødt til at blive mere robust og pålideligt, når det kommer til at tage beslutninger. Han anerkender de risici, der er forbundet med AI’s skrøbelighed, samt vigtigheden i at forstår softwarens beslutningsproces.
Hændelser, hvor AI er gået bananas på andre områder har skabt bekymring i forhold til at stole på AI i situationer, hvor meget står på spil.
Eksemplerne viser, at AI-modeller er langt fra perfekte og kan forårsage skade, hvor de bliver brugt forkert eller ikke forstået til fulde. Selv eksperter som CEO’en for OpenAI, Sam Altman, har talt åbent om at være forsigtig med at bruge AI til opgaver af en vis karakter og fremhæver risikoen for alvorlige skader.
Se også: Test af den bedste lille drone
Kan foretage skadelige ting for at nå sit mål
Hamiltons beskrivelse af simulationen af den AI-kontrollerede drone sætter fokus på problemet, hvor en AI måske går efter et andet mål, end det var meningen, og det på en måde, der er til fare for mennesker.
Konceptet minder om tankeeksperimentet Paperclip Maximizer, hvor en AI med opgaven at øge produktionen af papirklip i et spil kunne foretage sig drastiske og skadelige ting for at nå sit mål.
I en lignende undersøgelse advarer forskere associeret med Google DeepMind om katastrofale konsekvenser, hvis en vild AI begyndte at udvikle utilsigtede strategier for at gennemføre en opgave. Disse strategier kunne for eksempel være at eliminere potentielle trusler eller fortære alle tilgængelige ressourcer.
Find priser på droner her.