Microsoft trosser Pentagon for Anthropic

Nøkkelinnsikt
- Microsoft er det eneste store teknologiselskapet som har levert et venneskriv til retten til støtte for Anthropic, til tross for å være en av USAs største statsleverandører.
- Amazon, en av de tidligste investorene i Anthropic, skal angivelig ikke ha støttet selskapet i et møte med forsvarsminister Pete Hegseth.
- Dario Amodei argumenterer for at AI ikke er klar til å brukes i autonome våpensystemer uten at mennesker er med i beslutningsprosessen.
- Sorkin hevder at å stå opp for verdier kan vise seg å være et konkurransefortrinn: ingeniører og selskaper søker seg til Anthropic.
Dette er et AI-generert sammendrag. Kildevideoen inneholder demonstrasjoner, visuelt innhold og kontekst som ikke dekkes her. Se videoen → · Slik lages artiklene →
Kort fortalt
Microsoft har levert et venneskriv til retten («amicus brief», et dokument fra en tredjepart som støtter en side i en rettssak) der selskapet ber en dommer om å stoppe Pentagons betegnelse av Anthropic som en leveransekjederisiko. Det er en uvanlig handling fra et selskap som selv er blant USAs største statsleverandører og har investert opptil 5 milliarder dollar i Anthropic. Rundt 130 utviklere i Silicon Valley har levert et tilsvarende støtteskriv, men ingen andre store teknologiselskaper har gjort det samme. Amazon, en av de tidligste investorene i Anthropic, skal ifølge rapporten ikke ha støttet selskapet i et møte med forsvarsminister Pete Hegseth. Andrew Ross Sorkin mener dette kan bli et vendepunkt: selskaper som tør å stå for verdiene sine, kan vise seg å vinne i det lange løp.
Les også:
Microsofts uvanlige trekk
Microsoft gjør noe de fleste store selskaper ikke tør: de tar aktivt parti i en rettslig konflikt mellom et AI-selskap de har investert i og Trumps forsvarsdepartement. I rettsdokumentet ber Microsoft om en midlertidig forføyning. Det er en domstolskjennelse som blokkerer en bestemt handling mens saken pågår. Konkret vil den stanse Pentagons leveransekjederisiko-merking av Anthropic inntil saken er avgjort. Microsoft advarer om at selskapet og andre virksomheter ellers raskt vil måtte restrukturere produkter og kontrakter brukt av Pentagon.
Det som gjør dette spesielt bemerkelsesverdig: Microsoft investerte opptil 5 milliarder dollar i Anthropic i november 2025 og er en av de største statsleverandørene i USA. Sorkin mener dette gjør støtten enda mer betydningsfull. Microsoft har mer å tape enn nesten alle andre: et fiendtlig Forsvarsdepartement kan i teorien forsøke å kutte dem ut av statssystemer. At de likevel handler, tolker Sorkin som at de genuint mener det.
Stillheten fra de andre
Kontrasten til de andre store aktørene er slående. Rundt 130 utviklere i Silicon Valley har levert et eget venneskriv til retten, men ingen store teknologiselskaper har fulgt etter. Det er ifølge programlederne et symptom på en bredere fryktkultur i bransjen.
Amazon er det tydeligste eksempelet på dette. Selskapet er en av de aller tidligste investorene i Anthropic, men administrerende direktør Andy Jassy skal angivelig ikke ha støttet Anthropic i et møte med forsvarsminister Hegseth. Sorkin antyder at Jassy og selskaper i lignende situasjon er redde for å utfordre administrasjonen, og at dette er et reelt problem for hele bransjens integritet.
Hva med konkurrentene?
Bildet kompliseres ytterligere når man ser på hva Anthropics to største konkurrenter har gjort.
Elon Musk og xAI har ikke latt sjansen gå fra seg: Musk har aktivt hånet Anthropic og kalt dem hyklerske på X. Sorkin beskriver det som «trolling» fra en konkurrent som åpenbart ønsker å overta markedsandeler i kjølvannet av Pentagons aksjon.
Sam Altman og OpenAI er et mer sammensatt tilfelle. Altman var offentlig støttende til Anthropic i TV-sendingen, men OpenAI undertegnet dagen etter en kontrakt med Pentagon på nesten identiske betingelser som de Anthropic ble stemplet for å ha nektet. Sorkin kaller dette «betegnende for hvor politisk beslutningen var». Det er også verdt å merke seg at Palantirs Maven-program, et Pentagon-program for militær etterretningsanalyse, opereres med Anthropics AI-teknologi. Konsekvensene av å utestenge Anthropic fra forsvarskontrakter vil dermed ramme langt bredere enn selskapet selv.
Motstridende perspektiver
Er Anthropic faktisk uten skyld?
Konflikten startet, ifølge programlederen, da Anthropic stilte spørsmål om hvorvidt selskapets AI var blitt brukt i forbindelse med en militæroperasjon mot Nicolás Maduro. Hegseth skal ha reagert med frustrasjon, dels fordi Anthropic overhodet stilte spørsmålet, dels fordi Palantir tilsynelatende svarte på det, noe Pentagon angivelig mente var klassifisert informasjon. Et internt notat med ordlyd som ble oppfattet som politisk, bidro til å forverre forholdet.
Panelet er delt i vurderingen av dette: én røst mener Anthropic selv ga Pentagon grobunn for misnøye gjennom tonefallet i interne dokumenter. Sorkin aksepterer poenget, men mener det ikke rokker ved hovedargumentet: at Pentagon aksepterte identiske kontraktsvilkår fra OpenAI viser at det ikke handlet om vilkårene i seg selv.
Pentagons legitime bekymring om AI-beredskap
Det er imidlertid ett punkt der panelet er enige med Anthropics grunnlegger Dario Amodei: AI er rett og slett ikke klar til å brukes i autonome våpensystemer uten at mennesker er med i beslutningssløyfen. Panelet refererer til spekulasjoner om at en tragisk hendelse der barn skal ha blitt skadet, muligens kan knyttes til en AI-generert identifiseringsliste. Det er ubekreftet. Panelet understreker at de ikke vet. Sorkin mener det likevel er et eksempel på nettopp det Amodei har advart mot: hva som skjer når AI-systemer handler uten nok menneskelig kontroll.
Hvordan tolke disse påstandene
Sorkins innramming er overbevisende, men noen sentrale spørsmål fortjener grundig vurdering før man godtar hele analysen.
Motivasjon versus prinsipp
Sorkin gir Microsoft heder for motet, og det kan godt hende selskapet genuint mener det. Men det er vanskelig å skille moralsk overbevisning fra strategisk kalkyle. Microsofts vurdering kan like gjerne handle om at de er «så låst inn i alle statssystemer» at Pentagon ikke kan fjerne dem uten enorme kostnader. Det gir en slags beskyttelse som Amazon og andre ikke har på samme måte. At man handler riktig av strategiske grunner, er ikke nødvendigvis dårlig, men det nyanserer fortellingen om korporativt mot.
Politisk sak eller prinsipiell sak?
Sorkin argumenterer for at Pentagons behandling av Anthropic var politisk motivert, og OpenAI-eksempelet er et sterkt poeng. Men panelet diskuterer også offentlig partipolitikk i direkte sendinger, noe som gjør det vanskeligere å skille mellom analyse og politisk posisjon. Lesere bør merke seg dette når de vurderer argumentene.
Hva vet vi egentlig ikke?
Den alvorligste enkeltpåstanden i programmet, spekulasjonene om at Anthropics AI kan ha vært involvert i å generere en liste som rammet barn, er fullstendig ubekreftet. Panelet sier selv at de ikke vet. Det er betimelig å reise spørsmålet, men å inkludere det i en diskusjon om Anthropics integritet uten solid kildebelegg risikerer å farge helhetsinntrykket urettmessig.
Praktiske implikasjoner
For AI-selskaper
Saken illustrerer at verdier ikke lenger bare er merkevarebygging. Ingeniører ønsker seg til Anthropic fordi selskapet ikke har bøyd seg. Det er en rekrutteringsstrategi myntet på de beste hodene i bransjen, og det handler om å vise at man faktisk mener det man sier.
For selskaper som leverer til staten
Konflikten viser at ingen er utenfor rekkevidde, heller ikke selskaper med dype statsforbindelser. For selskaper som Palantir, som er dypt integrert i forsvarsinfrastrukturen via Anthropics teknologi, skaper dette juridisk og operasjonell usikkerhet de ikke rår over selv.
Ordliste
| Begrep | Forklaring |
|---|---|
| Amicus brief (venneskriv) | Et rettslig dokument levert av noen som ikke er direkte part i en sak, for å gi retten ekstra informasjon eller argumenter. Bokstavelig talt «venn av retten». |
| Midlertidig forføyning | En domstolskjennelse som midlertidig blokkerer en bestemt handling mens en rettssak pågår. |
| Leveransekjederisiko-merking | Et offentlig stempel som kategoriserer et selskap som en sikkerhetsrisiko i militære leverandørkjeder, og som begrenser selskapets tilgang til statskontrakter. |
| Maven | Et Pentagon-program som bruker AI til militær etterretningsanalyse. Palantir drifter programmet med Anthropics AI-teknologi. |
| Menneske i beslutningssløyfen | Et systemdesign der et menneske må godkjenne AI-beslutninger før de settes ut i livet, i stedet for at AI-systemer handler autonomt. |
| Autonome våpen | Våpensystemer som kan identifisere og engasjere mål uten menneskelig innblanding. |
Kilder og ressurser
Vil du vite mer? Se hele videoen på YouTube →