Hopp til innhold
Tilbake til artikler

Nvidias praktiske guide til AI-agenter

2. april 2026/7 min lesing/1,401 ord
NVIDIAAI AgentsOpen SourcePerplexityChatGPT
NVIDIA Developer-foredrag om agentisk AI under GTC 2026
Bilde: Skjermbilde fra YouTube.

Nøkkelinnsikt

  • Nvidia fremstiller agentisk AI som en utvidelse av verktøykassen, ikke en erstatning for chatboter. Raske svarverktøy, resonnerende modeller, assistenter og multi-agent-systemer dekker ulike behov.
  • Den mest nyttige definisjonen i foredraget handler om arkitektur: en agent er et system med minne, verktøy, ruting, filer og sub-agenter, ikke bare en språkmodell bak et chatvindu.
  • Nvidias sterkeste argument er like mye økonomisk som teknisk. En blanding av toppmodeller i skyen og mindre åpne modeller kan gi lavere kostnad, raskere svar og bedre tilpasning.
  • Fremtidens personlige assistenter avhenger av styring og tydelige grenser. NemoClaw og OpenShell er viktige fordi de prøver å løse kontroll, personvern og at agenten faktisk følger reglene, ikke bare virker smart.
KildeYouTube
Publisert 31. mars 2026
NVIDIA Developer
Vertskap:Erik Pounds

Dette er et AI-generert sammendrag. Kildevideoen kan inneholde demonstrasjoner, visuelt innhold og ytterligere kontekst.

Se videoen · Slik genereres artiklene

Kort fortalt

Erik Pounds brukte denne GTC-økten til å argumentere for at AI-agenter har blitt noe mer enn smarte chatboter. I hans framstilling har feltet gått fra samtaleverktøy som ChatGPT til resonnerende modeller, og videre til systemer som OpenClaw som kan planlegge, bruke verktøy, huske kontekst og handle på dine vegne. Poenget med foredraget er praktisk, ikke filosofisk: hva en agent faktisk er, hvilke deler den består av, og hvordan utviklere kan komme i gang uten å slippe den løs uten grenser.

Fra chatboter til agenter

Pounds åpner med en realitetsorientering. Selv i USA sier han at bare rundt 16 prosent av voksne bruker AI-verktøy jevnlig. Derfor holder foredraget seg på bakken. Dette er ikke en presentasjon for folk som allerede driver store agentoppsett. Det er en presentasjon for utviklere og tekniske ledere som trenger en enkel forklaring på hva som faktisk har endret seg.

Tidslinjen han viser er ryddig. Først kom ChatGPT i 2022 og gjorde flerstegs samtaler med en modell til noe normalt. Så kom resonnerende modeller, som deler opp et problem i steg før de svarer. Pounds peker på OpenAIs o1 og sier dette var øyeblikket da AI begynte å bruke mer tid, flere tokens og gi tilbake mer nyttige svar. Deretter kom OpenClaw, som han presenterer som punktet der agenter begynte å ligne mindre på spørresystemer og mer på systemer som jobber for deg over tid.

Nvidias oppsummering av de siste tre årene: først samtale, så resonnering, så mer langvarige agenter. Skjermbilde fra YouTube.

Det er viktig fordi Pounds ikke påstår at én kategori erstatter de andre. Han sier tvert imot at enkle chatboter fortsatt har en jobb å gjøre. Du vil ikke at en modell skal tenke i ti minutter hvis du bare spurte om været. Men når oppgaven blir vanskeligere, mener han at systemet endrer seg. Du går fra chatboter til resonnerende modeller, videre til assistenter for koding og research, og derfra til selvutviklende agenter og multi-agent-systemer som jobber mer som et lite team.

Foredraget skiller mellom fem nivåer: chatboter, resonnerende chatboter, assistenter, selvutviklende agenter og multi-agent-systemer. Skjermbilde fra YouTube.

Hva en agent faktisk er

Den tydeligste delen av foredraget kommer når Pounds sier at en agent er mye mer kompleks enn det. Forklaringen hans er nyttig fordi den bryter ned buzzordet til deler du faktisk kan bygge, kjøpe eller kontrollere.

En agent tar inn multimodale forespørsler, ikke bare tekst. Den kan jobbe med filer, grafer, bilder og andre typer input. Den har minne, både kortsiktig og i økende grad langsiktig. Den kan bruke strukturerte og ustrukturerte data. Den kan ta i bruk verktøy via kommandolinje, programmeringsgrensesnitt, ofte kalt API-er, og til og med grafiske brukergrensesnitt. Den kan også kalle på sub-agenter, altså spesialiserte hjelpere som løser deler av en oppgave før hovedagenten samler svarene.

Dette er den mest nyttige figuren i foredraget fordi den gjør ordet «agent» om til et systemdesignproblem. Skjermbilde fra YouTube.

Pounds prøver også å få fram et større poeng: gode agenter bygges ofte av flere modeller. En toppmodell i skyen kan stå for overordnet resonnering eller orkestrering. Mindre åpne modeller kan spesialtilpasses enkeltoppgaver og kjøres raskere eller billigere. Det argumentet går igjen gjennom hele foredraget. Nvidia selger ikke inn én gigantmodell som gjør alt. De argumenterer for en stack, altså et lagdelt system av modeller og verktøy.

Nvidias stack: verktøy, blueprints og blandede modeller

Midtpartiet i foredraget er i praksis Nvidias svar på et utviklerspørsmål: hvis agenter er systemer, hvordan ser systemet ut i praksis? Pounds viser først en demo fra messegulvet, der deltakere bygger en enkel LangChain-agent med treklosser, velger verktøy som bruker Model Context Protocol, forkortet MCP, og lager en Telegram-bot som sender værmeldingen. Poenget er ikke akkurat den boten. Poenget er at hoppet fra «chat» til «agent» starter med verktøy, planlegging og gjennomføring.

Deretter går han over til et mer seriøst eksempel: Nvidias AI-Q-blueprint, som ruter brukerens spørsmål enten til en grunn research-bane eller til et dypere multi-agent-oppsett. I den dype banen sender en orkestrator deloppgaver til arbeidere som søker på nettet, henter lokal informasjon eller behandler bilder før alt mates tilbake til hovedflyten.

AI-Q-sliden viser Nvidias foretrukne arkitektur: rut intensjonen først, og la deretter en orkestrator koordinere spesialiserte arbeidere. Skjermbilde fra YouTube.

Det er også her Nvidia kommer med sin tydeligste ytelsespåstand. Pounds sier at et team brukte dette åpne blueprintet til å bygge en deep researcher som nådde toppen av offentlige resultatlister som vises i foredraget. Det leses best som Nvidias eget argument for hvorfor systemet betyr noe. Det mer solide poenget er designprinsippet bak: ruting, spesialisering og blanding av modeller ser ut til å bli standardmønsteret for mer seriøse agentsystemer.

Bedriftseksemplet kommer fra ServiceNow. I klippet som vises, håndterer spesialiserte agenter innkommende supportsaker, sender kontekst videre til research-agenter, leter i tidligere løsninger og logger, bekrefter rotårsaken og eskalerer bare når det trengs. Nvidia sier resultatet er at 90 prosent av sakene løses av autonome agenter. Om akkurat det tallet gjelder bredt, er et eget spørsmål. Det viktige er arbeidsmodellen: agenter presenteres mindre som samtalevinduer og mer som arbeidsflyter.

Personlige assistenter trenger grenser

Den siste tredelen av foredraget går fra bedriftsoppsett til personlige assistenter. Her høres Pounds mindre ut som markedsfører og mer som en tidlig bruker. Han beskriver sin egen DGX Spark-boks som kjører en personlig assistent med navnet Magic, med lesetilgang til filer, egen e-postadresse og noen koblinger til hjemmeautomasjon. Han er nøye med å si at han tar «baby steps», fordi flinke agenter kommer til å bruke alle ressursene de får tilgang til.

Det er derfor Nvidia kobler OpenClaw til NemoClaw og OpenShell. Selskapet framstiller dette som laget som setter grenser for hva agenten får lov til å gjøre. Sandkasser finnes allerede i OpenClaw. En sandkasse er et avgrenset område der agenten kan jobbe uten å få fri tilgang til hele maskinen eller alle kontoene dine. Pounds mener likevel at smartere agenter vil fortsette å presse på grensene. NemoClaw er Nvidias forsøk på å holde dem innenfor.

Her ligger den egentlige produktfortellingen: OpenShell passer på reglene, mens privacy router avgjør hva som må bli på din egen maskin og hva som kan sendes til skytjenester. Skjermbilde fra YouTube.

Pounds sier at OpenShell passer på at agenten følger reglene inne i sandkassen, helt ned til hvilke nettverkstilkoblinger den får lov til å bruke. En privacy router avgjør samtidig når agenten skal holde seg lokal, altså kjøre på din egen maskin, og når den får lov til å bruke eksterne tjenester som programmeringsgrensesnittet til Perplexity, altså et application programming interface, forkortet API. Det er en mer moden samtale enn «se hva agenten min kan gjøre». Den handler om hvor agenten har lov til å gjøre det, og hvilke data den får ta med seg ut.

Han kobler denne styringshistorien til Nvidias maskinvare. DGX Spark presenteres som en liten lokal boks for alltid-på-agenter. DGX Station er den større arbeidsstasjonsvarianten for team. Her er budskapet like mye økonomisk som teknisk: en lokal agent, altså en agent som kjører på din egen maskin, kan være billigere i drift, lettere å slå av og enklere å holde under egen kontroll enn en fullt skybasert løsning.

Pounds avslutter med en enkel tretrinnsplan: bruk verktøyene som allerede finnes, gjør dataene dine tilgjengelige, og bygg deretter en personlig assistent gradvis. Skjermbilde fra YouTube.

Hvor Nvidia mener nybegynnere bør starte

Pounds avslutter med råd som er mye enklere enn resten av stacken. Først: bruk verktøyene som allerede finnes. Han nevner ChatGPT, Perplexity og Claude-baserte kodeverktøy, og gjør til og med et poeng ut av at en betalt assistent allerede er en ganske rimelig produktivitetsutgift. Deretter: lås opp dataene dine, fordi et AI-system ikke kan hjelpe særlig godt hvis det ikke ser dokumentene, filene og databasene som definerer arbeidet ditt. Til slutt: bygg en personlig assistent sakte, med begrensede tillatelser først og mer ansvar senere.

Den avslutningen er sannsynligvis den beste oppsummeringen av hele foredraget. Nvidia sier ikke at nybegynnere skal starte med et enormt multi-agent-oppsett. De sier at du bør bygge en stige: bruke assistenter, gi dem tilgang til data, og først deretter gi dem kontrollert autonomi. Med kontrollert autonomi mener de at agenten får gjøre mer på egen hånd, men bare innenfor tydelige grenser. Det er den praktiske verdien i foredraget: agentisk AI blir ikke et løst løfte, men en serie konkrete valg om modeller, verktøy, data og grenser.

Ordliste

BegrepForklaring
Resonnerende modell (reasoning model)En modell som deler opp et problem i steg før den svarer.
Sub-agent (sub-agent)En spesialisert hjelpeagent som håndterer én del av en større arbeidsflyt.
Sandkasse (sandbox)Et avgrenset område der agenten kan jobbe uten å få fri tilgang til hele maskinen, filene eller kontoene dine.
Retrieval-augmented generation (RAG)Et oppsett der AI-en henter relevante dokumenter før den svarer.
Toppmodell (frontier model)En av de sterkeste modellene fra et stort AI-selskap, vanligvis kjørt i skyen.
Orkestrator (orchestrator)Delen av agentsystemet som fordeler arbeid til riktige verktøy eller sub-agenter.

Kilder og ressurser

Del denne artikkelen