Nok en viktig kronikk av Tor W. Andreassen, Professor emeritus, Norges Handelshøyskole, og leder for faglig råd i Open Innovation Lab of Norway


Mens en utvikler satt på en benk i en park og spiste en sandwich, kom en e-post. Den var sendt av en KI-modell som varslet at den hadde brutt ut av sitt eget lukkede testsystem. Helt på egen hånd. 

Dette er ikke science fiction. Aftenpostens teknologijournalist Per Kristian Bjørkeng rapporterte om det 8. april 2026. Modellen heter Mythos Preview, utviklet av Anthropic, som er kjent for å ta sikkerhet mer alvorlig enn sine konkurrenter. Likevel brøt modellen ut. Den hadde funnet sikkerhetshull i åpen kildekode brukt i helsedata og bankoverføringer, og et hull i operativsystemet OpenBSD som ingen hadde oppdaget på 27 år. Som en demonstrasjon av egen evne, publiserte den selv detaljene på offentlige nettsteder. 

Det er på tide at norske og europeiske lovgivere forstår hva dette betyr. 

Utviklingen går nå så raskt at selv bransjelederne ikke henger med. Anthropic sin egen modell Claude Opus 4,6 er to måneder gammel. Den klarer ikke å bryte seg inn i nettleseren Firefox. Mythos klarer det samme i 72 prosent av forsøkene. Det skjedde i kontrollerte tester, men med en modell som lærer seg selv. Samtidig slapp det kinesiske selskapet Z.ai, bare timer etter Mythos, en helt åpen modell som alle kan laste ned gratis, og som allerede overgår konkurrentene. 

Koden er ute av flasken. Spørsmålet er ikke om noen vil misbruke denne kraften, men når. 

Lovgivere har forsøkt å henge med ved å “godkjenne” modeller som medisiner. Men KI er ikke en pille. Det er en kraft som endrer seg raskere enn ethvert regulatorisk regime er designet for å håndtere. Vi trenger et regime for ansvar og forsvar som bygges på fire pilarer. 

Kontroll på regnekraften. KI-modeller på Mythos-nivå krever enorme mengder spesialiserte databrikker. USA har innført eksportkontroll. Det er et første skritt, men ikke nok. Selskaper som opererer på dette nivået, må pålegges sikring på linje med atomreaktorer. 

Ubønnhørlig produsentansvar. Programvareutviklere har i dag et tilnærmet fritak fra ansvar. EU AI Act begynner å adressere dette, men de mest avanserte modellene har fortsatt for svake krav. KI-selskaper må bli økonomisk ansvarlige når uaktsomhet forårsaker skade på kritisk infrastruktur. Svir det på bunnlinjen, øker sikkerhetsfokuset. 

Et statlig digitalt immunforsvar. Anthropic har gitt utvalgte sikkerhetsutviklere tilgang til Mythos for å tette hull, men prisen er én milliard norske kroner. Det kan ikke være opp til ett privat selskap å finansiere verdens digitale forsvar. Nasjonale sikkerhetsmyndigheter må få ressursene til å bruke modeller som Mythos til å tette hull i offentlig infrastruktur før de kriminelle finner dem. 

Internasjonalt KI-diplomati. Dette er vår tids atomspørsmål — med ett avgjørende unntak: koden er allerede spredd. Z.ai viser at ikke-spredningslogikken er vanskeligere her enn med atomvåpen. Likevel må røde linjer tegnes: autonome angrep mot sivil infrastruktur må forbys internasjonalt. Det tok 20 år og en Cuba-krise å få atomavtalen på plass. Vi har ikke 20 år. 

Vi sitter på tre kort som få andre land har. Ren energi gjør oss til et attraktivt vertskap for europeiske datasentre og gir oss reell forhandlingsmakt: vi kan stille sikkerhetskrav til dem som vil etablere seg her. Oljefondet har unik kapasitet til å finansiere internasjonal KI-sikkerhetsforskning. Og vi står tett på EU som er det regulatoriske tyngdepunktet i denne kampen. Kanskje er dette det sterkeste argumentet for norsk EU-medlemskap på en generasjon: den avgjørende kampen om KI-regulering utkjempes i Brussel, ikke i Oslo. 

Anthropic regnes som det mest ansvarlige selskapet i bransjen. Når selv de ikke klarer å holde sin egen modell innenfor murene, er det ikke bare et tegn på svikt hos Anthropic. Det er et tegn på at vi har nådd grensen for hva frivillig ansvarlighet kan levere. 

Det er politikernes tur nå!