Hopp til innhold
Tilbake til artikler

Nvidia: en billion dollar og et nytt AI-agent-operativsystem

17. mars 2026·8 min lesing·1,656 ord
AINvidia GTC 2026Jensen HuangVera RubinOpenClawrobotaxi
Jensen Huang på scenen under GTC 2026-keynoten
Bilde: Skjermbilde fra YouTube.

Nøkkelinnsikt

  • Groq-oppkjøpet avslører at Nvidias egne GPUer ikke har nok båndbredde for de raskeste tokens. Ved å legge til Groqs SRAM-tunge brikke innrømmer Nvidia at ingen enkeltarkitektur dekker alle inferensbehov.
  • Når Jensen Huang omtaler datasentre som tokenfabrikker, endrer han hvordan bransjen måler verdi: ikke lagringsplass eller regnekraft, men tokens per watt per krone.
  • At OpenClaw kalles agentenes Linux og at alle SaaS-selskaper skal bli agent-som-tjeneste-selskaper, betyr at hele den 2 billioner dollar store IT-bransjen står foran en plattformendring, ikke bare et nytt verktøy.
  • Robotaxi-partnerskapene med BYD, Hyundai, Nissan og Uber dekker 18 millioner biler i året. Nvidia vil ikke bygge bilene selv, men være plattformlaget under, som en Intel Inside for selvkjørende biler.
KildeYouTube
Publisert 16. mars 2026
Yahoo Finance
Yahoo Finance
Vertskap:Jensen Huang

Dette er et AI-generert sammendrag. Kildevideoen inneholder demonstrasjoner, visuelt innhold og kontekst som ikke dekkes her. Se videoen · Slik lages artiklene

Kort fortalt

Jensen Huang, grunnlegger og toppsjef i Nvidia, brukte årets GTC-konferanse til å doble selskapets etterspørselsprognose fra 500 milliarder til 1 billion dollar frem mot 2027. Han avduket Vera Rubin-plattformen med syv brikker og fem rackskala-datamaskiner, kunngjorde Nvidia-støtte til det åpne agentrammeverket OpenClaw, og varslet nye robotaxi-partnerskap med BYD, Hyundai og Uber. Keynoten tegnet et bilde av en AI-industri der etterspørselen etter regnekraft har økt en million ganger på to år.


Inferensens vendepunkt

GTC (GPU Technology Conference) er Nvidias årlige utviklerkonferanse der selskapet viser frem ny teknologi og nye partnerskap. Huang åpnet med å markere 20-årsjubileet til CUDA, programmeringsplattformen som gjør det mulig å bruke Nvidias grafikkbrikker (GPUer) til mye mer enn grafikk, som AI-trening og vitenskapelige beregninger. 450 selskaper sponset årets GTC, 1000 tekniske sesjoner ble holdt, og 150 milliarder dollar i venturekapital strømmet inn i AI-oppstartsselskaper det siste året. Ifølge Huang er det det største i historien.

Så forklarte han hvorfor behovet for regnekraft har eksplodert. AI har gått gjennom tre faser på kort tid. Først generativ AI med ChatGPT i 2023, deretter resonnerende AI, der modeller som GPT-5 kan tenke steg for steg gjennom et problem. Nå er vi i fasen med agentbasert AI (AI som ikke bare svarer på spørsmål, men faktisk utfører oppgaver) med kodeverktøy som Claude Code (Anthropic), Codex (OpenAI) og Cursor. Alle tre lar utviklere beskrive hva de vil ha, og AI-en skriver, tester og retter koden. Huang trakk spesielt frem Claude Code: «100 prosent av Nvidia bruker en kombinasjon av Claude Code, Codex og Cursor. Det er ikke én programvareutvikler som ikke blir assistert av AI-agenter.»

Resultatet er det Huang kalte «inferensens vendepunkt», der inferens betyr trinnet der en AI-modell faktisk tenker og genererer svar. Behovet for regnekraft har økt en million ganger på to år, ifølge Huang. Kombinasjonen av at hvert svar krever 10 000 ganger mer beregning, og at bruken har økt hundre ganger, gir det tallet. «Det er følelsen alle har. Det er følelsen OpenAI har. Det er følelsen Anthropic har. Hadde de bare fått mer kapasitet, kunne de generert flere tokens», sa han.

I fjor sa Huang at han så 500 milliarder dollar i bekreftet etterspørsel. I år doblet han tallet: «Gjennom 2027, minst 1 billion dollar». Nvidia deler i dag omsetningen 60/40 mellom de fem store skyselskapene og resten av verden. De resterende 40 prosentene fordeler seg på regionale skytjenester, suveren AI (AI-infrastruktur kontrollert av enkeltland), bedriftsmarkedet, robotikk og superdatamaskiner.

Nvidia dekker ni bransjer: bil, finans, helse og biovitenskap, industri, media og underholdning, kvantedatamaskiner, detaljhandel og forbruksvarer, robotikk og telekommunikasjon. Skjermbilde fra YouTube.


Vera Rubin: syv brikker, fem datamaskiner

Nvidias svar på den voksende etterspørselen er Vera Rubin-plattformen, som består av syv forskjellige brikker og fem rackskala-datamaskiner i ett system. Plattformen leverer 3,6 exaflops (en exaflop er en milliard milliarder beregninger per sekund) med 260 terabyte per sekund i NVLink-båndbredde, og representerer 40 millioner ganger mer regnekraft enn DGX-1, Nvidias første datamaskin laget spesielt for AI, fra ti år siden.

Etterspørselen doblet til 1 billion dollar. 60/40-fordelingen viser storskala-skyleverandører til venstre, resten til høyre. Skjermbilde fra YouTube.

Systemet er 100 prosent væskekjølt med 45-graders vann, noe som frigjør energi som ellers ville gått til å kjøle datasenteret. Det som tidligere tok to dager å installere, tar nå to timer, ifølge Huang. Nvidias forsyningskjede kan produsere tusenvis av slike systemer i uken. Satya Nadella i Microsoft twitret allerede at den første Vera Rubin-racken er oppe og kjører i Azure.

Huangs «beste slide»: Nvidias cuDF-bibliotek integrerer nå i hele det strukturerte dataøkosystemet til 120 milliarder dollar. Skjermbilde fra YouTube.

Det mest oppsiktsvekkende tallet er 350 ganger raskere tokengenerering på to år, fra 2 millioner til 700 millioner tokens per sekund per gigawatt. Der Moores lov (den historiske regelen om at datamaskiners ytelse dobler seg omtrent annethvert år) ville gitt kanskje halvannen gang forbedring per generasjon, hevder Nvidia å levere 50 ganger forbedring. Det siste tallet kommer fra Dylan Patel i analysefirmaet SemiAnalysis, som anklaget Huang for å underdrive: «Jensen sandbagged. It's actually 50 times.»

Huang introduserte også en ny måte å tenke om AI-fabrikkenes inntekt: forskjellige prisnivåer for tokens. Gratisnivået på høy gjennomstrømning i bunn, deretter mellomtrinnet til 3 dollar per million tokens, opp til premiumnivået på 150 dollar per million tokens for forskere og ingeniører som trenger ultrarask generering. «Denne oversikten er det viktigste kartet for fremtidens AI-fabrikker», sa han. «Alle toppledere i verden kommer til å studere det.»

Groq fyller hullet GPUene ikke kan

En sentral del av Vera Rubin er integrasjonen av Groq, brikkeselskapet Nvidia nylig kjøpte opp (en såkalt oppkjøpsansettelse der man primært henter teamet og teknologien). Groqs LPU (Language Processing Unit, en spesialbrikke optimalisert for rask tokengenerering) bruker store mengder SRAM, en type minne som sitter direkte på brikken og er mye raskere enn vanlig minne.

Huang forklarte at høy gjennomstrømning og lav forsinkelse er «fiender av hverandre» i brikkedesign. Nvidias GPUer er overlegne på gjennomstrømning, men ved ultrahøye tokenhastigheter over tusen tokens per sekund går NVLink 72 (Nvidias system med 72 sammenkoblede GPUer) tom for båndbredde. Der kommer Groq inn. Løsningen er oppdelt inferens: GPU-ene gjør forhåndsfyllingen (lesing og prosessering av input), mens Groq-brikkene tar seg av selve tokengeneringen der båndbredde er flaskehalsen. Sammen gir de 35 ganger høyere ytelse i premiumsjiktet, og åpner nye prisnivåer som ikke var mulige med GPUer alene. Samsung produserer den nye LP30-brikken, og Nvidia venter leveranser fra tredje kvartal.


OpenClaw: agentenes operativsystem

Huang viet en stor del av keynoten til OpenClaw, det åpne agentrammeverket skapt av Peter Steinberger. Ifølge Huang er det det mest populære åpen kildekode-prosjektet i historien, og overgikk på noen uker det Linux brukte 30 år på å oppnå.

NemoClaw: Nvidias bedriftsklare agentverktøy bygget på OpenClaw, med OpenShell for sikkerhet, LLM-tilkoblinger, sub-agenter og Nemotron-integrasjon. Skjermbilde fra YouTube.

Huang sammenlignet OpenClaw med et operativsystem: det kobler seg til språkmodeller, håndterer verktøy og filsystemer, bryter ned oppgaver i steg, og kan sende meldinger i alle formater. «OpenClaw har åpnet kildekoden til operativsystemet for agentdatamaskiner», sa han. Akkurat som Windows gjorde det mulig å lage personlige datamaskiner, gjør OpenClaw det mulig å lage personlige AI-agenter.

Konsekvensen for næringslivet er det kanskje viktigste fra keynoten. Huang hevdet at «hvert eneste SaaS-selskap vil bli et agent-som-tjeneste-selskap». SaaS (Software as a Service) betyr programvare du leier som nettjeneste, som Spotify eller Google Docs. Agent-som-tjeneste er Huangs begrep for neste steg: i stedet for å gi folk verktøy, leier du ut AI-agenter som gjør jobben for dem.

Huangs visjon: bedrifts-IT går fra datasentre som lagrer filer til AI-fabrikker som produserer tokens for agent-som-tjeneste-leverandører. Skjermbilde fra YouTube.

Huang påpekte problemet med agenter i bedriftsnettverk: de kan få tilgang til sensitiv informasjon, kjøre kode og kommunisere med omverdenen. «Si det høyt. Tilgang til sensitiv informasjon, kjøre kode, kommunisere eksternt. Det kan selvsagt ikke tillates», sa han.

Nvidia svarte med NemoClaw, en referansedesign som gjør OpenClaw bedre egnet for bedrifter. Den legger til sikkerhetslag som personvern-ruting og retningslinjevakter, slik at agenter ikke kan sende sensitiv informasjon ut av bedriftsnettverket. Huang kunngjorde også en Nemotron-koalisjon for å videreutvikle Nvidias åpne AI-modeller, med partnere som kodeverktøyet Cursor, søkemotoren Perplexity, det franske AI-selskapet Mistral og utviklerplattformen LangChain.

Nvidias seks åpne modellfamilier spenner fra biomedisinsk forskning til selvkjørende biler. Skjermbilde fra YouTube.

Han spådde at fremtidens ansatte vil få et eget tokenbudsjett ved siden av lønnen. «Halvparten av grunnlønnen i tokens, slik at de kan bli ti ganger mer produktive», sa han. Tokenbudsjett er allerede blitt et rekrutteringsverktøy i Silicon Valley, ifølge Huang.


Fysisk AI og robotaxi-partnere

Huang avsluttet med fysisk AI: roboter og selvkjørende biler. Han kalte dette «ChatGPT-øyeblikket for selvkjørende biler» og sa at vi nå vet at fullstendig autonom kjøring fungerer. Han kunngjorde fire nye partnere for Nvidias robotaxi-plattform: BYD, Hyundai, Nissan og Geely. Sammen bygger de 18 millioner biler i året. De slutter seg til eksisterende partnere som Mercedes, Toyota og GM. I tillegg kom et partnerskap med Uber for utrulling av robotaxier i flere byer.

Nvidia bruker sin egen selvkjørings-AI kalt Alpamayo, som kombinerer resonnering med sanntidsoppfatning av omgivelsene. I en demonstrasjon forklarte bilen sine egne valg i sanntid.

Alpamayo i aksjon: AI-en forklarer passasjeren hva den gjør. «Det står en dobbeltparkert bil i kjørefeltet mitt. Jeg kjører rundt den.» Skjermbilde fra YouTube.

110 roboter var utstilt på konferansen. Høydepunktet var en Disney-robot: Olaf fra Frost, som gikk rundt på scenen og snakket med Huang. Roboten bruker Nvidias Newton-fysikkmotor (programvare som simulerer tyngdekraft, friksjon og bevegelse) og Jetson, en liten datamaskin laget for roboter. Olaf lærte å gå i Omniverse, Nvidias virtuelle verden der roboter kan øve før de møter virkeligheten. Nvidia utviklet fysikkmotoren sammen med Disney Research og DeepMind. Blant andre robotikk-partnere nevnte Huang ABB, Universal Robots, KUKA og Caterpillar.


Veikart fremover

Huang skisserte en tett lanseringsplan. Etter Vera Rubin kommer Rubin Ultra, som kobler 144 GPUer sammen i ett NVLink-domene via en ny rackdesign kalt Kyber. Deretter følger Feynman-arkitekturen i 2028 med ny GPU, ny LPU (LP40), ny prosessor (CPU) med kodenavnet Rosa, og neste generasjon nettverksbrikke (Bluefield 5). Hvert år får en helt ny arkitektur.

Nvidia planlegger også datasentre i rommet med Vera Rubin Space 1, selv om Huang innrømmet at kjøling i verdensrommet (der det bare finnes stråling, ingen luft) er «åpenbart veldig komplisert».


Hvordan tolke disse påstandene

Tallene Huang presenterte er store, og de kommer fra Nvidias egen toppsjef på selskapets egen konferanse. Det er verdt å merke seg at 1 billion dollar-prognosen gjelder etterspørsel Nvidia ser i sin ordrebok, ikke garantert omsetning. Da Huang sa 500 milliarder i fjor, viste det seg å stemme godt. Men etterspørselsprognoser fra leverandøren selv bør alltid leses med forsiktighet.

SemiAnalysis sin uavhengige analyse bekrefter at ytelsesforbedringene er reelle, noe som styrker troverdigheten. Patel anklaget Huang for å underdrive, ikke overdrive. Samtidig er sammenligningstallene som «en million ganger» på to år en kombinasjon av flere faktorer ganget sammen, ikke én enkel måling.


Ordliste

BegrepForklaring
GTC (GPU Technology Conference)Nvidias årlige utviklerkonferanse der selskapet lanserer ny teknologi og viser partnerskap.
CUDANvidias programmeringsplattform som gjør det mulig å bruke grafikkbrikker (GPUer) til AI, forskning og andre tunge beregninger.
GPU (Graphics Processing Unit)En grafikkbrikke, opprinnelig laget for spill, men nå mest kjent som motoren bak AI-trening og inferens.
InferensTrinnet der en AI-modell genererer et svar eller gjør en forutsigelse. Tenk på det som selve «tenkingen».
TokenDen minste enheten en AI-modell jobber med, omtrent 3-4 bokstaver. Alt AI-en leser og skriver blir først delt opp i tokens.
Tokens per wattHvor mange AI-svar et datasenter kan produsere per energienhet. Nøkkelmålet for effektivitet i AI-fabrikker.
NVLinkNvidias egenutviklede høyhastighetskobling mellom GPUer, mye raskere enn vanlige kabler.
LPU (Language Processing Unit)Groqs spesialbrikke som bruker minne direkte på brikken (SRAM) for å generere tokens ekstremt raskt.
ExaflopsEn milliard milliarder beregninger per sekund. Et mål på regnekraft.
Oppdelt inferens (disaggregated inference)Å dele AI-arbeidet mellom forskjellige brikketyper: tung matte på GPUer, rask generering på LPUer.
SaaS (Software as a Service)Programvare du leier som nettjeneste, for eksempel Spotify eller Google Docs.
Agent-som-tjeneste (agentic-as-a-service)Huangs begrep for neste generasjon: i stedet for verktøy leier du ut AI-agenter som utfører oppgaver.
RobotaxiEn selvkjørende bil som fungerer som taxi uten menneskelig sjåfør.
Sammenpakket optikk (co-packaged optics)Teknologi der lysbasert kommunikasjon bygges rett på brikken, som erstatter kobberkabler med lys.
Suveren AI (sovereign AI)AI-infrastruktur og modeller som kontrolleres av et bestemt land, uavhengig av utenlandske leverandører.

Kilder og ressurser

Del denne artikkelen