Hopp til innhold
Tilbake til artikler

Hierarkiske AI-agenter: Løser ett problem, skaper et nytt

14. mars 2026·5 min lesing·1,006 ord
AIhierarkiske agenterAI-agentarkitekturkontekstfortynningIBM Technology
Martin Keen fra IBM Technology forklarer hierarkiske AI-agenter på tavle
Bilde: Skjermbilde fra YouTube.

Nøkkelinnsikt

  • Ansvarsfordeling er kjerneprinsippet, hentet fra klassisk programvareutvikling. Ideen er ikke ny, men anvendelsen på AI-agenter er det.
  • Hierarkiet bytter ett sett problemer (kontekstfortynning) mot et annet (orkestreringskompleksitet). Det er ingen magisk løsning.
  • Modellfleksibilitet lar dyre modeller gjøre strategiarbeidet mens billige modeller tar rutineoppgavene. Det kan kutte inferenskostnadene betraktelig.
KildeYouTube
Publisert 12. mars 2026
IBM Technology
IBM Technology
Vertskap:Martin Keen

Dette er et AI-generert sammendrag. Kildevideoen inneholder demonstrasjoner, visuelt innhold og kontekst som ikke dekkes her. Se videoen · Slik lages artiklene

Kort fortalt

Martin Keen fra IBM Technology forklarer hvorfor enkeltagenter sliter med komplekse oppgaver og hvordan hierarkiske agenter (systemer der flere AI-agenter er organisert i lag med ulike ansvarsområder) skal løse problemet. Argumentet er overbevisende: en enkelt agent som skal planlegge, utføre og kvalitetssikre samtidig, mister fokus når oppgaven vokser. Men løsningen innfører sine egne utfordringer. Hierarkiet krever presis oppgavenedbrytning, koordinering mellom lag, og risikerer det Keen kaller en «telefonlek-effekt» der instrukser forvrenges på vei nedover.


Den sentrale påstanden

Keen åpner med et enkelt poeng: AI-agenter har et problem. De tar imot en forespørsel og jobber selvstendig mot et mål, men i langvarige oppgaver svikter de på forutsigbare måter. Han peker på tre typiske feilmodi.

For det første: kontekstfortynning. Når oppgaven vokser, drukner det opprinnelige målet i støy fra alle mellomstegene. For det andre: verktøymetning. Jo flere verktøy agenten har tilgang til, desto vanskeligere blir det å velge riktig. Og for det tredje: informasjon som går tapt i midten av et langt kontekstvindu, et kjent fenomen der språkmodeller undervurderer innhold som er plassert midt i en lang tekst.

Løsningen Keen foreslår er å slutte å la én agent gjøre alt alene. I stedet organiserer du agentene i et hierarki med to til tre lag: en overordnet agent som setter strategien, mellomledere som koordinerer, og spesialister som utfører de konkrete oppgavene.

Hvordan hierarkiet løser problemene

Den overordnede agenten holder oversikten over hele oppdraget, men når den delegerer en oppgave nedover, sender den bare den relevante biten av konteksten. Keen kaller dette kontekstpakker. Hvis jobben til en underordnet AI-agent er å formatere en JSON-fil, trenger den ikke det opprinnelige strategidokumentet på 4 000 ord. Det holder signal-til-støy-forholdet høyt og hindrer at modellen går seg vill.

Samme prinsipp gjelder for verktøy. Keen trekker parallellen til prinsippet om minste privilegium fra IT-sikkerhet: hver agent får bare tilgang til de verktøyene den trenger. Sikkerhetsagenten får tilgang til sårbarhetsskanneren, men ikke til utrullingspipelinen. Det reduserer sjansen for feilvalg.

Et tredje poeng er modellfleksibilitet. Med bare én agent trenger du den dyreste og kraftigste modellen for alt, fordi noen oppgaver krever det. I et hierarki kan du bruke en tung modell på toppen for planlegging og billigere modeller på bunnen for rutineoppgaver. Det kan spare betydelige inferenskostnader, altså hva det koster å kjøre modellen.

Ekstra fordeler

Keen nevner også tre tilleggsfordeler: modularitet (hver agent kan testes og byttes ut uten å berøre resten), parallellitet (flere agenter kan jobbe på ulike deler av problemet samtidig), og rekursiv tilbakemelding. Når en lavnivåagent fullfører en oppgave, rapporterer den tilbake til nivået over, som kan fungere som en kvalitetsport og bestille et nytt forsøk hvis resultatet ser feil ut.


Reelle begrensninger

Keen er ærlig om at hierarkiske agenter ikke er noen magisk løsning, og han peker på tre konkrete svakheter.

Oppgavenedbrytning er vanskelig

Hele systemet står og faller på den overordnede agentens evne til å bryte et komplekst mål ned i riktige deloppgaver og rute dem til riktige spesialister. Hvis den bommer, arver alt nedstrøms feilen. Keen beskriver dette som «søppel inn, søppel ut», men gjennom tre lag av agenter. Han observerer at dagens språkmodeller er inkonsekvente planleggere: de kan overse avhengigheter, undervurdere kompleksitet, og det han ser oftest er at de overdekomponerer enkle oppgaver til unødvendige steg.

Orkestreringskostnader

Å koordinere flere agenter krever tilstandsstyring, overleveringslogikk og feilhåndtering. Til forskjell fra et oppsett med bare én agent må du arkitektere et helt system. Hvis logikken som styrer kommunikasjonen mellom agentene er skjør, kan systemet falle inn i rekursive løkker der agenter sender feil frem og tilbake til de når tokengrensen sin.

Telefonleken

Keen bruker en hverdagslig analogi: en leder gir en instruksjon som filtreres gjennom noen kollegaer, og personen som faktisk utfører jobben får beskjed om noe subtilt, men meningsfullt annerledes enn det lederen ba om. Det samme kan skje med agenter hvis oppgavenedbrytningen er litt upresis eller feil kontekst blir kuttet bort på veien ned. Resultatet: en spesialistagent som utfører feil oppgave feilfritt.


Hvordan tolke disse påstandene

Keens gjennomgang er pedagogisk sterk og balansert. Han presenterer både fordelene og begrensningene ærlig. Men noen spørsmål fortjener nærmere vurdering.

Et gammelt prinsipp i ny innpakning

Keen sier selv at ansvarsfordeling ikke er ny tenkning. Det er et klassisk prinsipp fra programvareutvikling, anvendt på AI. Det er verdt å merke seg fordi det betyr at hierarkiske agenter ikke er et gjennombrudd. De er en velkjent arkitekturløsning satt inn i en ny kontekst. Spørsmålet er om prinsippet oversetter like godt til AI-systemer som det fungerer i tradisjonell programvare, der komponentene er deterministiske og forutsigbare.

Kilden er IBM

Videoen er produsert av IBM Technology. IBM har kommersielle interesser i enterprise-AI-løsninger og agentplattformer. Det betyr ikke at analysen er feil, men perspektivet er formet av en aktørs syn på markedet. Uavhengige sammenligninger mellom enkeltagent- og hierarkiske systemer fra forskningsmiljøer ville styrket argumentet.

Eksemplene er illustrative, ikke empiriske

Keen bruker forståelige eksempler (JSON-formatering, sikkerhetsagenter, DevOps-agenter), men ingen av dem er dokumenterte casehistorier. De illustrerer konsepter, ikke resultater. Sterkere bevis ville kommet fra kontrollerte sammenligninger mellom enkeltagent- og hierarkiske systemer på de samme oppgavene, med målbare forskjeller i presisjon, kostnad og feilrate.

Hva som ikke sies

Videoen sier lite om når hierarkiske agenter er overkill. For mange oppgaver er én agent nok, og å legge til et hierarki kan bety kompleksitet uten tilsvarende gevinst. Keen lar det stå åpent hvor grensen går mellom oppgaver som trenger hierarki og oppgaver som ikke gjør det.


Praktiske implikasjoner

For utviklere som bygger agentsystemer

Keens viktigste poeng er at hierarki er et designvalg, ikke en oppgradering. Det krever gjennomtenkte overleveringer, validering av resultater mellom lag, og bevisst valg av hvilke modeller som brukes hvor. Start med å spørre: er oppgaven kompleks nok til å rettferdiggjøre orkestreringskostnadene?

For beslutningstakere

Modellfleksibiliteten Keen beskriver har direkte konsekvenser for kostnader. Å bruke dyre frontiermodeller bare der de trengs og billigere modeller for rutinearbeid kan redusere inferenskostnadene vesentlig. Men det forutsetter at oppgavenedbrytningen er presis nok til at de billige modellene faktisk kan løse sine deloppgaver.


Ordliste

BegrepForklaring
Hierarkiske agenterAI-agentsystem der agentene er organisert i lag med ulike ansvarsområder, fra strategi på toppen til utføring på bunnen.
KontekstfortynningNår en AI mister fokus på det opprinnelige målet fordi mellomsteg hoper seg opp i kontekstvinduet.
VerktøymetningNår en agent har så mange verktøy tilgjengelig at det blir vanskelig å velge riktig.
Tapt i midtenEt fenomen der språkmodeller undervurderer informasjon som er plassert midt i en lang tekst.
KontekstpakkerRelevante utdrag av kontekst som sendes til lavnivåagenter, i stedet for hele samtalehistorikken.
AnsvarsfordelingPrinsipp fra programvareutvikling: hver komponent har ett spesifikt ansvarsområde.
OppgavenedbrytningÅ bryte et komplekst mål ned i mindre deloppgaver som kan delegeres.
OrkestreringskostnaderDet ekstra arbeidet som kreves for å koordinere flere agenter: tilstandsstyring, overleveringer og feilhåndtering.
InferenskostnaderHva det koster å kjøre en AI-modell for å generere svar, målt i regnekraft og penger.
Rekursiv tilbakemeldingsløkkeMekanisme der lavnivåagenter rapporterer resultater tilbake oppover, slik at overordnede agenter kan kvalitetssikre og korrigere.

Kilder og ressurser

Del denne artikkelen