Hopp til innhold
Tilbake til artikler

Tokenmaxxing: Silicon Valleys nye AI-konkurranse

17. april 2026/6 min lesing/1,276 ord
AnthropicOpenAIAI InfrastructureGenerative AI
CNBC Television-studio med Deirdre Bosa som intervjuer Eric Glyman om tokenmaxxing
Bilde: Skjermbilde fra YouTube.

Nøkkelinnsikt

  • Tokenmaxxing gjør AI-forbruk til en prestasjonsmetrikk, men Goodharts lov sier at et måletall som blir et mål slutter å måle det det skulle
  • Ramps data viser en K-formet AI-økonomi. De 25 prosent som bruker mest AI har mer enn doblet omsetningen, mens de 25 prosent som bruker minst står flatt
  • OpenAI bygger for maksimal etterspørsel. Anthropic setter tak og krever betaling. Kun én av strategiene kan ha lest markedet riktig
  • Investor Dan Niles peker på Amazon i 1999: selv om du pekte ut vinneren, falt aksjen 95 prosent fra topp til bunn. Overinvestering er garantert i revolusjonerende teknologi
Publisert April 9, 2026
CNBC Television
CNBC Television
Vertskap:Deirdre Bosa
Ramp
Gjest:Eric GlymanRamp

Dette er et AI-generert sammendrag. Kildevideoen kan inneholde demonstrasjoner, visuelt innhold og ytterligere kontekst.

Se videoen · Slik genereres artiklene

Kort fortalt

Det finnes et nytt fenomen i Silicon Valley, og det heter tokenmaxxing. Ingeniører konkurrerer om hvem som bruker flest AI-tokens. Nvidia-sjef Jensen Huang har sagt at han ville vært bekymret hvis en topp-ingeniør ikke brukte 250 000 dollar i AI-compute i året. Shopify bruker det som et prestasjonssignal. Meta-ansatte skal ha brent rundt 900 millioner tokens på én måned.

I en 42 minutter lang CNBC-livestream 9. april 2026 setter Deirdre Bosa det store spørsmålet: hvor mye av den oppblåste AI-etterspørselen er ekte, og hvor mye er bare spill? Hun intervjuer Eric Glyman (CEO i Ramp), som lanserer et produkt for å spore bedriftens token-forbruk, og investor Dan Niles, som advarer om en boble.

De peker på at det er ekte forskjell mellom selskaper som adopterer AI og de som ikke gjør det. Men når AI-forbruk blir selve målestokken, svikter metrikken. Og over alt står spørsmålet: har OpenAI eller Anthropic lest markedet riktig?

Hva er tokenmaxxing?

Et token er AI-ens grunnenhet for bruk. Når du skriver til en chatbot eller en agent, deles teksten inn i tokens, og hvert svar koster et visst antall tokens. Mer tokens betyr mer databehandling, som betyr høyere regning. Jo kraftigere modell (som Claude Opus eller GPT-5), jo dyrere per token.

Tokenmaxxing er kulturen der AI-forbruk blir en status-indikator. Det ligner litt på hvordan kodelinjer en gang var en prestasjonsmetrikk blant programmerere. Nå er det tokens brent i AI-systemer.

Ramp lager et produkt som gir finansledere oversikt over hele bedriftens AI-forbruk: hvor mange tokens, til hvilken oppgave, med hvilken modell, og om en billigere modell kunne gjort jobben like bra. Glyman sier at AI-forbruket i kundebasen deres har økt 13 ganger på ett år, med 50 prosent vekst hvert kvartal. Men ingen vet hvordan de skal budsjettere for dette.

Målefella: når metrikken blir målet

Her kommer Goodharts lov inn: "et måletall som blir et mål, slutter å måle det det skulle". Glyman sier det slik:

"Once you incentivize people to go and get off the call, people hang up quickly. Once you incentivize use as many tokens, you'll see engineers go and count all the digits of pi and use these tokens."

Det er ikke et hypotetisk eksempel. Bosa åpner sendingen med historien om Amazon, som en gang målte kundeservicemedarbeidere på hvor raskt de fikk avsluttet samtaler. Resultatet var at medarbeidere la på kunder for å få ned tiden. Metrikken gikk opp. Kundeservicen kollapset. Jeff Bezos skrotet det over natten.

Den samme feilslutningen skjer nå med AI-tokens. Men denne gangen er innsatsen over tusen milliarder dollar i planlagt AI-infrastruktur.

Ferrari-for-matleveranse

Glymans mest siterte analogi: du bruker en Ferrari for å hente dagligvarer. Det vil si: du sender en frontier-modell som Claude Opus eller GPT-5 på en oppgave som en mye billigere modell (Claude Haiku, en eldre GPT-variant eller en åpen kildekode-modell) kunne gjort like godt.

"You can use the most advanced model on the planet to edit your email, but maybe you don't need to."

Poenget er ikke at ingen skal bruke de kraftigste modellene. Poenget er at finansledere ikke har noen måte å vite hvor mye AI-forbruk som faktisk gir avkastning, og hvor mye som bare er vaneforbruk eller leaderboard-jag blant ingeniørene.

Glyman legger til en interessant observasjon fra OpenRouter (en tjeneste som ruter forespørsler mellom ulike AI-modeller): frontier-modellenes andel av alle tokens har falt fra over 20 prosent til rundt 4 prosent. Folk velger billigere modeller når de kan.

To strategier: OpenAI vs Anthropic

Her dukker sendingens spenningsmoment opp. De to mest synlige AI-selskapene i USA har valgt motsatte strategier:

OpenAIAnthropic
HovedgrepBygger maksimal kapasitet, senker priserSetter tak på bruk, krever betaling, kutter tredjeparts-tilgang
AntakelseEtterspørselen fortsetter rett oppKun ekte, betalbar etterspørsel teller
RisikoInnhenter ikke investeringen hvis veksten flater utGår glipp av marked om etterspørselen virkelig tar av

Glyman antyder at hans egen holdning ligger nærmere Anthropics disiplin: aggressive mål, men realistisk om avkastningen på investeringen. Niles er mer direkte. OpenAI hadde ifølge ham rundt 20 milliarder dollar i årlig inntektstakt, men 1,4 billioner (tusen milliarder) dollar i kapitalforpliktelser. De forventes å brenne 220 milliarder dollar i kontantstrøm frem til 2029 før lønnsomhet i 2030.

Resultatet av den ubalansen er at du ser Oracle-aksjen falle hardt (over halvparten av Oracles backlog er knyttet til OpenAI), og Microsoft ned 20 prosent hittil i år (de eier 27 prosent av OpenAI). Google, derimot, er opp, fordi selskapet er fri kontantstrøm-positivt.

K-formen i AI-økonomien

Ramp-data over mer enn 50 000 bedrifter viser en tydelig splittelse:

  • Nederste 25 prosent (bruker minst AI): omsetningsvekst på rundt 12 prosent over tre år, altså nærmest flatt.
  • Øverste 25 prosent (bruker mest AI, inkludert håndverksbedrifter og takleggere, ikke bare tech): mer enn doblet omsetningen.

Budskapet er nyansert: AI-adopsjon fungerer, men det betyr ikke at alt forbruket er optimalt. Det er mulig å bruke AI godt og fortsatt sløse. Det er også mulig at topputøverne bruker mer tokens fordi de faktisk har flere reelle arbeidsoppgaver, ikke fordi de "tokenmaxer".

Historisk perspektiv: Amazon 1999 eller Cisco 2000?

Dan Niles er porteføljeforvalter som har sett to store teknologi-bølger gå gjennom finansmarkedene. Hans ramme er dotcom-boblen:

  • Amazon (1999 til 2003): omsetningen gikk fra 1,6 til 3,1 milliarder dollar, nesten en dobling. Men aksjen falt 95 prosent fra topp til bunn. Selv om du pekte ut vinneren, måtte du tåle hele fallet før du fikk pengene tilbake.
  • Cisco: vinneren av internett-bredbånd. Aksjen brukte over 20 år på å komme tilbake til 1999-nivå.
  • NASDAQ-indeksen: falt 78 prosent over to og et halvt år. Rundt tusen internett-selskaper gikk konkurs.

Niles sitt poeng: når infrastrukturbehovet er så stort, får du garantert overinvestering. Det er ikke et spørsmål om. Det er et spørsmål om hvilke selskaper som overlever nedturen.

Hans vurdering per april 2026:

RetningSelskaperHvorfor
Posisjonerer seg positivt forAnthropic, Amazon, AppleAmazon hoster Anthropic-arbeidslasten og har fysisk infrastruktur. Apple kan lene seg tilbake med 1,5 milliarder iPhones og lisensiere AI fra Google
Er forsiktig medMicrosoft, OracleBegge har stor eksponering mot OpenAI, som Niles ser som klemt mellom Anthropic (enterprise) og Google (forbruker)

Agent-skiftet forandrer regnestykket

En mindre påaktet nyhet fra intervjuet: etter at agent-drevne AI-produkter (Niles nevner spesifikt Anthropics Claude Code) rullet ut på vinteren 2026, eksploderte token-veksten hos OpenRouter fra 20 prosent til 130 prosent på to måneder.

Men agenter krever en annen type maskinvare enn klassisk AI. Dagens AI-infrastruktur er bygget for GPU-er (grafikkprosessorer) som gjør repetitive regnestykker lynraskt i parallell. Agenter gjør mange forskjellige oppgaver etter hverandre: hente data fra én nettside, åpne et regneark, kalle et API, huske forrige steg. Da trenger du CPU-er (vanlige prosessorer), mer minne og optisk kommunikasjon mellom serverene.

Det er grunnen til at Intel, som har vært avskrevet i tre år, plutselig er interessant igjen. Denne uken annonserte Google og Intel en avtale. Niles spår at agent-boomen kan løfte en hel klynge av "døde" tech-aksjer tilbake til livet.

Hva dette egentlig handler om

Tokenmaxxing er mer enn en merkelig konkurranse mellom ingeniører. Det er en proxy-metrikk for et mye vanskeligere spørsmål: hvor mye av den gigantiske AI-infrastrukturen som bygges akkurat nå, vil faktisk bli brukt?

Hvis OpenAI har rett, er vi fortsatt tidlig. Etterspørselen vokser eksplosivt, agent-boomen er bare begynnelsen, og de som bygger mest kapasitet vinner.

Hvis Anthropic har rett, er markedet i ferd med å velge vinnerne allerede, og disiplin betyr mer enn volum. Betalingsvilje er det reelle signalet, ikke tokens brent i en leaderboard.

Begge kan ikke ha rett samtidig. Og i mellomtiden konkurrerer Silicon Valleys ingeniører fortsatt om hvem som kan bruke flest tokens.

Ordliste

BegrepForklaring
TokenGrunnenheten for AI-forbruk. Én token tilsvarer omtrent 3/4 av et engelsk ord. Du betaler per token inn og per token ut
TokenmaxxingKulturen der AI-forbruk blir en prestasjonsmetrikk. Ingeniører og selskaper konkurrerer om hvem som bruker flest tokens
Frontier-modell (frontier model)De kraftigste og dyreste AI-modellene: Claude Opus, GPT-5, Gemini Ultra. Designet for komplekse oppgaver, men ofte overkill for vanlige oppgaver
Goodharts lov (Goodhart's law)"Et måletall som blir et mål, slutter å måle det det skulle." Fenomenet at så snart en metrikk blir insentivert, begynner folk å optimalisere for selve metrikken i stedet for det den skulle måle
GPU (graphics processing unit)Grafikkprosessor. Designet for å gjøre repetitive regnestykker i parallell. Dagens AI er bygget på dette
CPU (central processing unit)Hovedprosessor. Designet for å gjøre mange forskjellige ting etter hverandre. Nyttig for agenter som hopper mellom oppgaver
Agent (AI agent)En AI som utfører oppgaver selvstendig i stedet for bare å svare på spørsmål. Kan åpne regneark, lese nettsider, kalle API-er
OpenRouterTredjeparts-tjeneste som ruter AI-forespørsler mellom ulike modeller og leverandører, og publiserer data om modellbruk
Innovatørens dilemma (innovator's dilemma)Teori om at etablerte selskaper sliter med å omfavne disruptive teknologier fordi det truer deres eksisterende forretningsmodell
Jevons-paradokset (Jevons paradox)Når noe blir billigere eller mer effektivt å bruke, øker ofte totalforbruket i stedet for å synke

Kilder og ressurser

Del denne artikkelen