Anthropic hjelper USA i Iran. Pentagon vil sparke dem.

Nøkkelinnsikt
- Mythos er ikke trent til å hacke med vilje. Evnen kommer som biprodukt av å bli ekstremt god på kode. Det betyr at andre toppmodeller sannsynligvis vil utvikle samme egenskaper når de blir gode nok på koding
- Allen kaller Pentagons stempling av Anthropic som leverandørkjederisiko for fullstendig urimelig. Det er kategorien USA bruker mot mistenkte kinesiske spionfronter, ikke mot kritiske leverandører til nasjonal sikkerhet
- Skiftet i Iran-krigen er ikke bare antall mål. Bak 1 000 slagne mål ligger 10 000 til 20 000 småbeslutninger ingen menneskelig analytikergruppe kunne ha levert
- Tidsvinduet på 6 til 8 måneder er det mest verdifulle Anthropic har akkurat nå. Spørsmålet Allen reiser er om USA bruker det til å tette sårbarheter i kritisk infrastruktur eller brenner det opp i en kontraktstvist
Dette er et AI-generert sammendrag. Kildevideoen kan inneholde demonstrasjoner, visuelt innhold og ytterligere kontekst.
Kort fortalt
Gregory Allen er seniorrådgiver ved Wadhwani AI Center hos CSIS (Center for Strategic and International Studies, en amerikansk tenketank om sikkerhets- og utenrikspolitikk) og en av de mest siterte stemmene i USA på AI og nasjonal sikkerhet. På Bloomberg Television 17. april kom han med et oppsiktsvekkende anslag: Anthropic er i ferd med å bli like sterk på cyberangrep som NSA, USAs signaletterretning og cyberbyrå.
Mythos kan utføre hele angrepskjeden på egenhånd. Den finner sårbarheten, utnytter den, skaffer seg dypere tilgang og fullfører innbruddet uten et menneske involvert. Anthropic har valgt å holde modellen tilbake fra åpent salg, og gir bare 40 utvalgte selskaper, banker og statlige etater tilgang for å tette sårbarheter før evnen sprer seg til andre.
Samtidig får selskapet kjeft fra de samme amerikanske myndighetene det prøver å hjelpe. Pentagon har stemplet Anthropic som en leverandørkjederisiko (supply chain risk), samme kategori USA normalt bruker mot mistenkte kinesiske spionfronter. Det skjer mens Anthropics teknologi brukes hver dag i den pågående Iran-krigen.
Les også:
En NSA i privat hånd
Allens nøkkelpoeng er at evnen til å hacke ikke er noe Anthropic har trent fram med vilje. De har trent modellen til å bli veldig god på å skrive kode. Som Allen formulerer det:
"If you're really, really good at writing computer code, it's not that far away to be really, really good at hacking in computer code."
Det er den sentrale påstanden. Hackingferdighetene er en bivirkning av kodeferdighetene, ikke noe selvstendig. Mythos kan finne en sårbarhet, utnytte den, gå gjennom hele angrepskjeden og levere et vellykket innbrudd, helt på egenhånd.
Hvorfor sammenligne med NSA? Fordi cybersikkerhet har vært preget av massiv mangel på arbeidskraft i 20 år. Hackere er dyre, vanskelige å trene opp og finnes i lite antall. Når én modell kan gjøre store deler av jobben uten en menneskelig operatør, blir Anthropic sammenlignbart med NSA når det gjelder hva selskapet faktisk er i stand til å gjøre.
Kappløpet mot klokken
Mythos kan brukes både til angrep og forsvar. Den nye standarden Allen skisserer er at all ny programvare må gjennom det han kaller Mythos-testen før den slippes løs på verden: holder koden mål mot en angriper på dette nivået?
Problemet er overgangsfasen. Internett er bygget på enorme mengder åpen kildekode som vedlikeholdes av frivillige, og kritisk infrastruktur som banker og energiselskaper. Mengden kode som må gås gjennom og rettes over de neste 12 månedene er massiv.
Samtidig sier Allen at Anthropic har et forsprang på 6 til 8 måneder på alle de andre ledende AI-selskapene i den private sektoren, og at amerikanske myndigheter ikke engang er på banen. Det er den korte tiden vi har.
| Aktør | Status |
|---|---|
| Anthropic | Har Mythos i dag, deler med 40 utvalgte selskaper |
| Andre ledende AI-selskaper (OpenAI m.fl.) | 6 til 8 måneder bak |
| Hackermiljøer | Kommer etter, men kommer |
| Kina | Det Allen frykter mest |
| USAs egen regjering | Forsøker ikke engang, ifølge Allen |
Anslaget er Allens, ikke et offisielt tall. Men poenget er klart: tiden er kort, den er verdifull, og den kan brukes opp.
Pentagon-paradokset
Her blir historien rar. Amerikanske myndigheter trenger Anthropic for å nå Mythos-nivået i det hele tatt — Allen sier rett ut at "den eneste måten de kan få denne evnen på, er å samarbeide med privat industri". Anthropic er en av de viktigste leverandørene til etterretning og krigføring akkurat nå.
Likevel har Pentagon merket selskapet som en leverandørkjederisiko, den typen merkelapp departementet bruker når det avsløres at en leverandør i hemmelighet er front for kinesisk etterretning. Allens dom er hard:
"It's completely unreasonable. And the government is in this moment of utter confusion because on the one hand they're saying, Anthropic, you've got to help us secure the financial arteries of our economy on cyber. On the other hand, we don't trust you at all. And actually we'd prefer if you go out of business."
Striden bunner i en uenighet om kontraktsvilkår, ikke i mistanke om at Anthropic er en spionfront. Men den praktiske konsekvensen er den samme: forspranget på 6 til 8 måneder, som Allen kaller kritisk, kan brukes opp før det offentlige rekker å bruke det.
Iran-krigen og Project Maven
Det konkrete eksempelet Allen drar frem er den pågående Iran-krigen, der USAs militære bruker Anthropic-modeller hver dag. Inngangen er Project Maven, Pentagons program for å bringe AI inn i etterretning og målbestemmelse (targeting: prosessen med å identifisere og prioritere militære mål).
Project Maven startet beskjedent i 2018-2019 med å analysere overvåkningsvideo fra droner. AI-en kunne se på et satellittbilde og si: dette er tomt vann, men her er det et krigsskip.
I dag er evnene helt andre. Med store språkmodeller (LLM, large language models) som Anthropics i bunnen kan AI-en si: i går var dette området tomt, i dag står det ti krigsskip her, de beveger seg i denne retningen, og her er førsteutkastet til etterretningsrapporten om hva de antakelig planlegger.
| Tidsepoke | Hva AI-en kunne | Hva analytikere måtte gjøre |
|---|---|---|
| Project Maven 2018–2019 | Identifisere objekter i bilder | Skrive hele etterretningsrapporten |
| Mythos-æraen i dag | Identifisere, sammenligne over tid og skrive utkast | Verifisere og beslutte |
Tallene Allen drar frem er voldsomme. USA traff 1 000 mål på 24 timer i den første fasen av Iran-krigen. Sammenligningsgrunnlaget tidligere var rundt 50 mål per dag. Mange av målene var mobile, mange var kamuflert.
Bak 1 000 slagne mål ligger ifølge Allen 10 000 til 20 000 etterretningsbeslutninger av høy kvalitet som måtte tas i samme periode. Konklusjonen hans er enkel: amerikanske myndigheter kunne ikke ha gjort dette uten AI-hjelp.
Det som egentlig har endret seg
Selv om mye av oppmerksomheten rundt Mythos handler om ytelsestester og kodeferdigheter, er Allens poeng et annet. Den reelle endringen er at ett selskap nå er like sterkt på cyberangrep som en statlig etterretningstjeneste, og at evnen leveres inn i en pågående krig fra dag én.
Spørsmålene Allen lar henge i lufta:
- Klarer USA å bruke forspranget på 6 til 8 måneder til å tette sårbarheter i kritisk infrastruktur, eller går tiden tapt?
- Når modeller med åpen kildekode (open source) blir gode nok på koding, får de samme angrepsevner automatisk. Hvem kontrollerer dem da?
- Hvis Anthropic er kritisk for nasjonal sikkerhet i dag, hvorfor merker Pentagon dem som en leverandørkjederisiko?
Allens egen vurdering er at langtidsutsiktene er gode fordi Anthropic har valgt en strategi med samarbeid og åpenhet. Det selskapet og verden står overfor på kort sikt, sier han, blir en ekstremt rotete overgangsfase (han kaller det "an incredibly messy middle").
Ordliste
| Begrep | Forklaring |
|---|---|
| Angrepskjede (cyber kill chain) | Stegene en angriper må gjennom for å lykkes: oppdage et system, finne en sårbarhet, utnytte den, eskalere tilgang og hente ut data |
| Datasyn (computer vision) | AI som "ser" og tolker bilder eller video. Det Project Maven brukte i 2018 til å skille tomt vann fra et krigsskip |
| Toppmodell (frontier model) | De aller mest avanserte AI-modellene. I dag bygges de av en håndfull selskaper som Anthropic, OpenAI og Google DeepMind |
| Leverandørkjederisiko (supply chain risk) | Pentagons offisielle merkelapp for leverandører som anses som sikkerhetstrussel. Brukes normalt mot selskaper mistenkt for å være kinesiske spionfronter |
| Målbestemmelse (targeting) | Den militære prosessen med å identifisere, prioritere og angripe mål. I Iran-krigen er det her AI-en brukes mest |
| Project Maven | Pentagons program fra 2017 for å bringe AI inn i etterretning og målbestemmelse. Startet med å analysere dronevideo, bruker i dag store språkmodeller |
| Sårbarhet (vulnerability) | En feil i programvaren som lar en angriper komme inn. Kan tettes hvis utviklerne kommer dit før hackerne |
Kilder og ressurser
- Bloomberg Television — Anthropic's Mythos: What It Is and What It Is Capable of — Selve intervjuet
- Gregory Allen på LinkedIn — Allens profil
- Wadhwani AI Center, CSIS — Allens program ved CSIS
- Anthropic — Selskapet som bygger Claude og Mythos
- Project Maven på Wikipedia — Pentagons AI-program for etterretning
- NSA — Sammenligningsgrunnlaget Allen bruker
Vil du vite mer? Se hele videoen på YouTube →