USA truer med å tvinge Anthropic til å levere KI til militæret – selskapet nekter
Anthropic sier nei til å fjerne sikkerhetsgrensene på sin KI for det amerikanske forsvaret. Nå truer Pentagon med å bruke tvangsmidler. Konflikten viser spenningen mellom KI-sikkerhet og statsmakt.

Vegard Haavik
Daglig leder, ARTI Consult AS
Kort fortalt
Anthropic nekter å fjerne sikkerhetsgrensene på KI-modellen Claude for det amerikanske forsvarets bruk, spesielt knyttet til masseovervåking og autonome våpensystemer. Pentagon har truet med å bruke Defense Production Act for å tvinge selskapet. Anthropic-sjef Dario Amodei forsvarer avgjørelsen som prinsipiell. Samtidig har OpenAI inngått en avtale med Pentagon. Konflikten reiser viktige spørsmål om forholdet mellom teknologiselskaper, KI-sikkerhet og statsmakt.
- Anthropic nekter å fjerne sikkerhetsgrenser på Claude for militært bruk — spesielt overvåking og autonome våpen.
- Pentagon truer med å bruke Defense Production Act for å tvinge selskapet.
- Dario Amodei: «Vi vil ikke levere et produkt som setter amerikanske soldater og sivile i fare.»
- Konflikten setter en viktig presedens for hele KI-bransjen: Kan staten tvinge teknologiselskaper til å senke sikkerheten?
- OpenAI har tatt en annen vei og inngått avtale med Pentagon om å levere sine modeller.
Hva skjer når et av verdens ledende KI-selskaper sier nei til landets eget forsvar? Det finner vi ut nå.
Anthropic, selskapet bak KI-assistenten Claude, har nektet å fjerne sikkerhetsgrensene på sin teknologi for det amerikanske forsvarsdepartementet. Pentagon svarer med å true med tvangsmidler.
Hva er konflikten?
Pentagon ønsket å bruke Anthropics KI-modell Claude til militære formål — blant annet overvåking og beslutningsstøtte. Problemet var at de ville ha modellen uten de innebygde sikkerhetsgrensene som hindrer visse typer bruk.
Anthropic sa nei. Selskapet mener teknologien ikke er pålitelig nok til å brukes i autonome våpensystemer og masseovervåking uten menneskelig kontroll. De tilbød i stedet å samarbeide om forskning for å gjøre systemene tryggere, men forsvarsdepartementet avslo.
«Vi vil ikke sette soldater og sivile i fare»
Anthropic-sjef Dario Amodei var tydelig: «Vi vil ikke bevisst levere et produkt som setter amerikanske soldater og sivile i fare.» Selskapet understreker at de fortsatt samarbeider med forsvaret på andre områder — men at det finnes røde linjer de ikke er villige til å krysse.
Pentagon truer med tvangsloven
Svaret fra Pentagon lot ikke vente på seg. Forsvarsdepartementet truet med å bruke Defense Production Act — en lov som kan tvinge amerikanske selskaper til å prioritere statlige behov av hensyn til nasjonal sikkerhet. De vurderte også å stemple Anthropic som en «forsyningskjederisiko», en betegnelse som vanligvis er forbeholdt utenlandske aktører.
OpenAI velger en annen vei
Mens Anthropic nekter, har konkurrenten OpenAI valgt en annen tilnærming. Selskapet har inngått avtale med Pentagon om å levere sine modeller til bruk på klassifiserte nettverk — riktignok med krav om at mennesker skal ha ansvar for bruk av makt.
Hva betyr dette for KI-bransjen?
Denne konflikten er større enn én kontrakt. Den handler om et grunnleggende spørsmål: Kan staten tvinge teknologiselskaper til å senke sikkerheten på KI-systemer? Og hvem skal bestemme hvor grensene går — selskapene selv, myndighetene eller en uavhengig instans?
For norske bedrifter og beslutningstakere er dette en påminnelse om at KI ikke bare handler om effektivitet og produktivitet. Det handler også om etikk, sikkerhet og hvem som har kontroll over teknologien vi alle blir stadig mer avhengige av.
Kilder: Engadget, Protect Democracy, Perplexity
Flere nyheter
Nyhet • 28. februar 2026
Meta bygger KI-agent rett inn i annonseringsverktøyet – dette betyr det for norske annonsører
Nyhet • 28. februar 2026
OpenAI henter 110 milliarder dollar – blir verdens mest verdifulle oppstartsbedrift
Nyhet • 28. februar 2026
.png)