Jensen Huang: AGI er her og intelligens er en handelsvare

Nøkkelinnsikt
- Huang erklærer at AGI allerede er nådd, men kvalifiserer det tungt: en enkelt AI-agent kan skape en milliard-dollar-bedrift i dag, men 100 000 agenter ville ikke klart å bygge NVIDIA. Debatten om AGI handler om definisjon, ikke evne.
- Datasentre er ikke lenger lagerhus for filer, de er tokenfabrikker som genererer inntekter direkte. Det er kjerneargumentet for at behovet for regnekraft vil bli hundre ganger større enn i dag.
- CUDAs virkelige konkurransefortrinn er ikke teknologien alene, det er 20 år med installert base, millioner av utviklere som stoler på plattformen, og en forbedringstakt ingen kan matche fra null.
- Huang skiller skarpt mellom intelligens og menneskeverd: intelligens vil bli en handelsvare, mens karakter, medfølelse og utholdenhet forblir det som virkelig teller.
Dette er et AI-generert sammendrag. Kildevideoen kan inneholde demonstrasjoner, visuelt innhold og ytterligere kontekst.
Kort fortalt
Jensen Huang, grunnlegger og toppsjef i NVIDIA, besøkte Lex Fridman for en 2,5 time lang samtale om alt fra AI-skaleringslover til hva som skiller intelligens fra menneskeverd. Huang erklærte at AGI (kunstig generell intelligens) allerede er nådd, men la til at 100 000 AI-agenter likevel ikke ville klart å bygge NVIDIA. Han beskrev datasentre som tokenfabrikker som genererer direkte inntekter, forklarte hvorfor CUDA-plattformens viktigste egenskap er den installerte basen, og avsluttet med et skarpt skille: intelligens er en handelsvare, men karakter og medfølelse er de virkelige superkrefter.
Les også:
AGI allerede her, men med store forbehold
Lex Fridman ba Huang om å definere AGI som et AI-system som kan starte, vokse og drive et vellykket teknologiselskap verdt mer enn en milliard dollar. Er det fem, ti eller tjue år unna?
Svaret kom kontant: «Det er nå. AGI er allerede her.»
Men Huang kvalifiserte svaret tungt. Det er ikke umulig at et AI-system i dag kan lage en liten app som millioner av mennesker bruker en stund, og som kort gir en milliard dollar i verdi, akkurat slik mange nettsteder fra internett-æraen gjorde. «Oddsene for at 100 000 av de agentene bygger NVIDIA er null prosent», la han til. En AI kan altså i teorien nå denne definisjonen, men det er ikke det samme som å erstatte menneskelig innovasjon og lederskap i et komplekst, 34 år gammelt selskap med 43 000 ansatte.
Poenget hans er at AGI-debatten handler om definisjon, ikke om evne. Setter du lista lavt nok, er vi der allerede. Setter du den høyt nok, er vi langt unna. Og han advarte mot at dette bekymrer folk unødvendig: verktøyene du bruker i jobben din er ikke det samme som jobben din. Radiologer forsvant ikke da AI ble bedre enn mennesker på å lese røntgenbilder. Tvert imot trengs det nå flere av dem, fordi sykehusene kan behandle langt flere pasienter med AI-hjelp.
Fire skaleringslover og én begrensning
Huang bruker begrepet skaleringslover (scaling laws) om det enkle prinsippet at AI blir smartere jo mer regnekraft og data det får. Tradisjonelt har dette handlet om fortrening (pre-training), der modellen leser enorme mengder tekst. De siste årene har bransjen funnet tre nye akser for skalering.
Den andre er ettertrening (post-training): å la eksperter vurdere tusenvis av modellsvar for å forbedre kvaliteten etter den første opplæringen. Den tredje er beregning ved bruk (test-time compute): å la modellen bruke ekstra tid på å tenke gjennom et svar, sjekke sitt eget arbeid og prøve på nytt. Den fjerde er agentisk skalering (agentic scaling): å la en AI sende oppgaver videre til underagenter, slik en leder delegerer til et team.
«Intelligens kommer til å skalere av én ting, og det er regnekraft.»
Resultatet er at behovet for regnekraft ikke vokser lineært, det eksploderer. Elon Musks Colossus-superdatamaskin, AI-anlegget til selskapet xAI, bruker 200 000 GPUer (grafikkbrikker som er motoren i AI-beregninger). En enkelt Vera Rubin-rack fra NVIDIA inneholder 1,3 millioner komponenter fra 200 leverandører. På ti år har NVIDIA levert en million ganger mer regnekraft, mot de hundre gangene Moores lov (den historiske regelen om at datamaskiners ytelse omtrent dobler seg annethvert år) ville gitt.
Fra lagerhus til tokenfabrikk
Den kanskje viktigste omformuleringen i samtalen handler ikke om AI, men om hva en datamaskin egentlig er.
«Vi gikk fra et gjenfinningsbasert datasystem til et generativt datasystem.»
Huang forklarte det slik: tidligere var en datamaskin et lagerhus. Folk forhåndslagret filer, tekstdokumenter, bilder og videoer. Datamaskinen hentet det du spurte om. Nå er datamaskinen en fabrikk. Den genererer nye svar, nye bilder og ny kode i sanntid, tilpasset akkurat deg og akkurat den situasjonen du er i. Lagerhus tjener lite penger. Fabrikker genererer direkte inntekter.
Det er grunnlaget for Huangs påstand om at NVIDIAs vekst er «ekstremt sannsynlig og i min tanke uunngåelig». Tokens (den grunnleggende enheten av tekst som AI behandler, omtrent ett ord eller ordstykke) segmenterer allerede som iPhone-modeller: gratistokens med høy gjennomstrømning i bunnen, premium-tokens for spesialiserte formål øverst. «1 000 dollar per million tokens er rett rundt hjørnet.»
Spørsmålet Huang stiller er dermed: hvis hele verdens samlede verdiskaping vil vokse fordi produktiviteten øker dramatisk, og andelen brukt på regnekraft vil bli hundre ganger større enn i dag, hvor stor er NVIDIA da? Han svarer ikke med et konkret tall, men kaller motstanden mot den tanken for ikke å tenke fra første prinsipper.
CUDAs virkelige fortrinn
Et gjentakende spørsmål i AI-bransjen er om noen kan bygge et «bedre CUDA» og slik true NVIDIAs dominans. CUDA er programmeringsplattformen NVIDIA utviklet for å la programvare kjøre på grafikkbrikkene deres.
Huangs svar er at dette misforstår hva det egentlige konkurransefortrinnet er.
«Vår enkelt viktigste egenskap som selskap er den installerte basen av CUDA.»
Da NVIDIA for 20 år siden begynte å legge CUDA inn i GeForce-spillkort, ikke bare profesjonelle arbeidstasjoner, brukte de bevisst ressurser på å dyrke en base av utviklere som hadde ingenting med NVIDIAs kjernevirksomhet å gjøre. De gikk til universiteter, holdt kurs, sponset bøker. Resultatet er millioner av utviklere som har brukt år på å skrive programvare på toppen av CUDA, og som i dag kan nå hundrevis av millioner datamaskiner i alle skyer og alle bransjer.
«En konkurrent kunne ha bygget GUDA eller TUDA. Det ville ikke gjort noen forskjell.» Det er ikke teknologien alene som beskytter NVIDIA, det er tiltro. At NVIDIA vil opprettholde CUDA, forbedre bibliotekene og støtte plattformen «så lenge de lever» er grunnen til at en utvikler velger CUDA fremfor et alternativ. Kombinasjonen av rekkevidde, hastighet og tillit er bygget opp over 20 år. Det er ikke noe man kopierer over natten.
Intelligens som handelsvare, menneskeverd som superevne
Samtalen endte med det Huang kaller det viktigste budskapet han ønsker å formidle.
Gjennom hele AI-revolusjonen har «intelligens» blitt behandlet som det mest verdifulle et vesen kan ha. Huang utfordrer det premisset direkte. Han er omgitt av folk som er smartere enn ham på sitt respektive felt. Og likevel spiller han en rolle i det fellesskapet. Intelligens er altså ikke det som skiller ham ut.
Karakter, medfølelse, sjenerøsitet, vår evne til å bære smerte og stå i det: Huang kaller disse «overnaturlige evner» som AI aldri vil overta. Intelligens vil bli en handelsvare fordi vi har vist hvordan man skalerer den med regnekraft. Men evnen til å ha medfølelse, til å ta vanskelige valg med integritet, til å bry seg genuint om andre: det kan ikke skaleres med mer GPU-kraft.
Rådet hans til dem som er engstelige for AI er dermed ikke å lære Python eller prompt-skriving. Det er å investere i det som gjør deg menneskelig.
Fremtidens programmering: fra 30 millioner til en milliard kodere
Huang avsluttet med et bilde av hva programmering betyr i en verden der AI skriver koden.
«Vi gikk fra 30 millioner til sannsynligvis 1 milliard.»
Kodere. Ikke ingeniørene som skriver lavnivåkode i 20 år, men alle som kan beskrive hva de vil at en datamaskin skal gjøre. Spesifisering er programmering. En tømmermann som bruker AI til å bestille materialer, planlegge tid og lage tilbud er i dag også arkitekt. En regnskapsfører som bruker AI er også finansrådgiver. Alle yrkesgrupper har fått løftet sin verdi, ikke erstattet jobbene sine.
Det er Huangs svar på frykten for AI og arbeidsmarkedet: verktøyene endres, formålet med jobben er det samme. Og det er alltid mulig å stige opp til neste nivå.
Ordliste
| Begrep | Forklaring |
|---|---|
| AGI (Artificial General Intelligence) | Kunstig generell intelligens: et AI-system som kan løse en bred rekke oppgaver på minst menneskelig nivå. Ingen klar konsensus på hva dette betyr i praksis. |
| Skaleringslover (scaling laws) | Prinsippet om at AI blir smartere med mer regnekraft, mer data og mer tid til å tenke. |
| Beregning ved bruk (test-time compute) | Når AI bruker ekstra tid på å tenke gjennom et svar i stedet for å svare umiddelbart. |
| Agentisk skalering (agentic scaling) | Å gjøre AI smartere ved å la den delegere oppgaver til underagenter, som å ansette et team i stedet for å jobbe alene. |
| Token | Den grunnleggende enheten av tekst som AI behandler, omtrent ett ord eller ordstykke. |
| CUDA | NVIDIAs programmeringsplattform som lar programvare kjøre på grafikkbrikkene deres. Tenk på det som språket som kobler programvare til NVIDIA-maskinvare. |
| Installert base (install base) | Det totale antallet enheter og brukere som allerede kjører en bestemt teknologi. Jo større basen er, jo mer attraktiv er plattformen for utviklere. |
| Ekstrem samdesign (extreme co-design) | Å designe alle komponenter i et system sammen slik at de fungerer optimalt som helhet, i stedet for å optimere hvert element for seg. |
| HBM (High Bandwidth Memory) | Spesialisert raskt minne stablet i lag, laget for AI-brikker som må flytte enorme mengder data svært raskt. |
Kilder og ressurser
Vil du vite mer? Se hele videoen på YouTube →