Hopp til innhold
Tilbake til artikler

Derfor satte Anthropic grenser for Pentagons AI-bruk

7. mars 2026·5 min lesing·1,078 ord
AIAnthropicPentagonAutonome våpenMeninger
Dario Amodei diskuterer Anthropics Pentagon-kontrakt med The Economist
Bilde: Skjermbilde fra YouTube.

Nøkkelinnsikt

  • Amodei framstiller Anthropics motstand som et produktsikkerhetsspørsmål, på linje med en flyprodusent som advarer mot usikre bruksområder
  • Pentagons merking som forsyningskjederisiko er uten sidestykke for et amerikansk selskap. Tidligere forbeholdt motstandere som Huawei
  • Amodei advarer om et 'dobbelt dilemma' der AI risikerer å gjøre både selskaper og myndigheter mektigere enn demokratiske systemer kan kontrollere
KildeYouTube
Publisert 6. mars 2026
The Economist
The Economist
Vertskap:Zanny Minton Beddoes
Anthropic
Gjest:Dario AmodeiAnthropic

Denne artikkelen oppsummerer Anthropic's CEO explains why he took on the Pentagon. Se videoen

Les denne artikkelen på English


Kort fortalt

Dario Amodei, sjef for Anthropic, forklarer hvorfor selskapet nektet å fjerne alle begrensninger på Pentagons bruk av AI-modellen Claude. I en samtale med The Economists sjefredaktør Zanny Minton Beddoes argumenterer Amodei for at striden ikke handler om politikk, men om teknikk: teknologien er ikke pålitelig nok for helt autonome våpen, og å samle slik makt uten tilsyn skaper risiko som går langt forbi én enkelt regjering. Pentagon svarte med å stemple Anthropic som en forsyningskjederisiko (supply chain risk), en merkelapp som tidligere bare har blitt brukt mot utenlandske motstandere som Kinas Huawei.

$200M
Pentagon-kontrakt i spill
99 %
enighet hevdet av Amodei
2
røde linjer: overvåking og autonome våpen

Hovedpåstanden: produktsikkerhet, ikke politikk

Amodeis hovedargument gjør tvisten om til et teknisk sikkerhetsspørsmål. Han sammenligner Anthropic med en flyprodusent som forteller en kjøper at flyet ikke er trygt å fly over en viss høyde eller svinge i en viss hastighet (0:24). Systemene ble ikke bygget for disse bruksområdene, og å ta dem i bruk på den måten skaper risiko produsenten ikke kan stå inne for.

Anthropics to røde linjer (absolutte grenser selskapet nekter å krysse) er masseovervåking av amerikanere og helt autonome våpen, altså systemer som velger ut og angriper mål uten at et menneske er involvert. Amodei understreker at den eksisterende, mer begrensede kontrakten fungerte godt. Claude ble brukt i operasjoner knyttet til Venezuela og Iran uten problemer (0:52). Bruddet kom da Pentagon ønsket en bredere kontrakt som ville tillate «all lovlig bruk».

Amodei gjentar at uenigheten er liten. Han hevder 99 % enighet med Pentagon om hvordan teknologien bør brukes (3:11). Striden handler, ifølge ham, om hvor grensen skal gå for et lite antall bruksområder teknologien ennå ikke er klar for.


Det doble dilemmaet: for mektig for alle

Intervjuets mest slående argument kommer i andre halvdel. Amodei beskriver det han kaller et «dobbelt dilemma», en situasjon der AI er for mektig for både private selskaper og stater, (5:09).

På den ene siden truer AI med å gjøre private selskaper mektigere enn noensinne. På den andre siden truer det med å gi myndigheter en makt som ikke kan holdes i sjakk. Amodei sier han er like bekymret for begge scenariene, enten myndighetene er demokratiske eller autoritære (5:35).

Han illustrerer bekymringen med et tankeeksperiment: hva skjer når en hær av 10 millioner AI-styrte droner erstatter 10 millioner menneskelige soldater? Mennesker har normer. De følger ordre, men hvis noe ekstremt nok skjedde, ville de nekte (6:10). Droner har ingen slike normer. Uten gjennomtenkt styring kan svært få mennesker, eller én enkelt person, kontrollere en autonom militærstyrke uten mulighet til å si nei.

Beddoes oppsummerer det rett ut: «Denne teknologien er for mektig til å være i hendene på noen få private selskaper, og den er for mektig til å være i hendene på en regjering.» Amodeis svar: «Det er dessverre situasjonen» (7:03).


Motstridende perspektiver

Pentagons standpunkt

Pentagon mener militære leverandører ikke kan diktere hvordan produktene deres brukes i strid. Beddoes oppsummerer deres sannsynlige svar: de trenger leverandører de kan stole på, og de kan ikke ha «en fyr i Silicon Valley» som bestemmer hva forsvaret kan og ikke kan gjøre (2:42). Fra dette perspektivet svekker Anthropics betingelser forsvarets evne til å handle raskt og setter en farlig presedens for sivil kontroll over militære verktøy.

Risikoen for nasjonalisering

Beddoes reiser den logiske konsekvensen: hvis myndighetene krever total kontroll over AI brukt i forsvar, kan resultatet bli en form for nasjonalisering (statlig overtakelse) av AI-selskaper som jobber med forsvaret (3:41). Amodei avfeier ikke dette. Han erkjenner at de kommende årene vil kreve vanskelige samtaler om forholdet mellom AI-selskaper og myndigheter.


Hvordan tolke disse påstandene

Amodei legger frem et sammenhengende argument, men flere faktorer påvirker hvordan det bør leses.

Vinklingen favoriserer Anthropic

Flyanalogien framstiller Anthropic som en ansvarlig produsent som varsler om sikkerhetsrisiko. Men Pentagons motargument, at en leverandør ikke bør kunne legge ned veto mot militære operasjoner, er også rimelig. Intervjuet gir Amodeis vinkling langt mer plass enn den motsatte.

99 % enighet er et retorisk grep

Å hevde 99 % enighet får uenigheten til å virke bagatellmessig, men den gjenværende prosenten omfatter autonome våpen og masseovervåking. Dette er ikke små bruksområder. Tallet er effektiv retorikk, men det tilslører hvor viktig uenigheten faktisk er.

Det doble dilemmaet mangler en løsning

Amodei peker ut kjernespenningen tydelig: AI er for mektig for en hvilken som helst enkeltaktør. Men han foreslår ikke noe rammeverk, tilsynsorgan eller organisasjon for å løse det. Diagnosen er overbevisende. Resepten mangler.

Forretningsinteresser blir ikke drøftet

Anthropic er et kommersielt selskap som konkurrerer med OpenAI, Google og andre. Merkingen som forsyningskjederisiko kan skade den kommersielle virksomheten. Om prinsipielt standpunkt og forretningsstrategi tilfeldigvis trekker i samme retning, er et spørsmål intervjuet ikke utforsker.


Praktiske følger

For politikere og beslutningstakere

Saken avdekker et akutt tomrom: det finnes ikke noe etablert rammeverk for hvordan AI-selskaper og myndigheter skal forhandle grensene for militær AI-bruk. Eksisterende regler for innkjøp til forsvaret ble laget for maskinvare, ikke for programvare som kan brukes til vidt forskjellige formål.

For AI-bransjen

OpenAI har ifølge rapporter jobbet for å overta Pentagon-kontrakten Anthropic kan miste. Hvordan hvert store AI-selskap stiller seg til militær bruk, vil forme både offentlig samarbeid og omdømme i årene som kommer.

For folk flest

Tankeeksperimentet med 10 millioner droner er ikke science fiction. Utviklingen av autonome våpen skyter fart verden over. Spørsmålet om hvem som kontrollerer disse systemene, og hvilke normer som styrer bruken av dem, angår alle.


Ordliste

BegrepForklaring
Forsyningskjederisiko (supply chain risk)En offentlig merkelapp som hindrer offentlige etater og leverandører fra å handle med et selskap. Tidligere bare brukt mot utenlandske motstandere som Huawei.
Autonome våpenVåpensystemer som kan velge ut og angripe mål uten direkte menneskelig kontroll. Kalles også «dødelige autonome våpensystemer» (LAWS, Lethal Autonomous Weapons Systems).
Menneske i løkka (human in the loop)Et krav om at et menneske må godkjenne kritiske avgjørelser, som å avfyre et våpen, før systemet handler.
Røde linjerAbsolutte grenser et selskap eller en regjering setter for hva det vil eller ikke vil gjøre. Anthropics røde linjer er masseovervåking og autonome våpen.
Dobbelt dilemmaAmodeis begrep for situasjonen der AI samtidig er for mektig for private selskaper og for mektig for myndigheter å kontrollere uten kontrollmekanismer.
NasjonaliseringStatlig overtakelse av et privat selskap eller en bransje, enten formelt eller gjennom regler som fjerner selskapets selvstendige beslutningsmakt.

Kilder og ressurser