Hopp til innhold
Tilbake til artikler

AI-agenter trenger mer enn språkmodeller

2. mars 2026·11 min lesing·2,102 ord
AI-agenterForretningsreglerArbeidsflytIBMMaskinlæring
IBM Technology: How AI Agents and Decision Agents Combine Rules & ML in Automation — YouTube-miniatyr
Bilde: Skjermbilde fra YouTube.

Nøkkelinnsikt

  • Store språkmodeller klarer ikke alt alene. Arbeidsflyt, forretningsregler og maskinlæring må kombineres for å bygge pålitelige AI-systemer
  • Beslutningsagenter bygget på regelplattformer gir konsistente, transparente og reviderbare avgjørelser — noe reguleringsmyndigheter krever
  • Et realistisk AI-system for banklån trenger ni ulike agenter, der tre klarer seg helt uten språkmodeller
KildeYouTube
Publisert 28. oktober 2025
IBM Technology
IBM Technology
Vertskap:IBM Technology
Blue Polaris
Gjest:James Taylor (grunnlegger og daglig leder)Blue Polaris

Denne artikkelen oppsummerer How AI Agents and Decision Agents Combine Rules & ML in Automation. Se videoen

Les denne artikkelen på English


Kort fortalt

James Taylor fra Blue Polaris (IBM Gold Business Partner) forklarer hvorfor store språkmodeller (Large Language Models / LLM-er, AI-modeller som ChatGPT, Claude og Gemini som forstår og genererer tekst) ikke kan løse alt alene. Gjennom et banklån-eksempel viser han hvordan ni ulike agenter samarbeider. Seks av dem bruker LLM-er, men tre klarer seg helt uten og bruker arbeidsflytplattformer, forretningsregler og datateknologi i stedet. Taylor kaller dette flermetode-agenthåndtering (multi-method agentic AI), en tilnærming der du velger riktig verktøy for hver oppgave i stedet for å tvinge alt gjennom én teknologi.


Hva er flermetode-agenthåndtering?

De fleste som snakker om AI-agenter i dag, mener agenter drevet av LLM-er. Men Taylor argumenterer for at LLM-er har kjente begrensninger som gjør dem uegnet for visse oppgaver. De kan ikke huske hvor langt du har kommet i en prosess. De tar ikke samme avgjørelse to ganger på rad. Og de kan ikke forklare nøyaktig hvorfor de bestemte seg for noe bestemt.

Flermetode-agenthåndtering betyr at du kombinerer LLM-er med andre velprøvde teknologier: arbeidsflytplattformer (workflow platforms, programvare som styrer flertrinnsprosesser), forretningsregelsystemer (Business Rules Management Systems / BRMS, verktøy for å definere og håndheve regler) og maskinlæring. Målet er at hver agent bruker teknologien som passer best til sin oppgave.

Forklart enkelt:

Forklart enkelt: Tenk deg et sykehus. Du har kirurger, sykepleiere, røntgenteknikere og farmasøyter. Alle jobber med pasienten, men ingen av dem prøver å gjøre alt selv. Kirurgen opererer, farmasøyten håndterer medisinene. På samme måte bør et AI-system bruke spesialiserte agenter i stedet for å la én språkmodell gjøre alt. I motsetning til sykehuset, der hver person er selvstendig, er AI-agentene avhengige av et styringssystem som koordinerer dem automatisk.

Hvorfor ikke bare bruke LLM-er til alt?

Taylor peker på tre grunnleggende svakheter:

  • LLM-er klarer ikke å holde styr på fremdriften. De husker ikke hvor langt en kunde har kommet i en flertrinnsprosess. Kommer du tilbake neste dag, er alt borte
  • LLM-er tar ikke konsistente beslutninger. Still det samme spørsmålet to ganger, og du kan få to forskjellige svar. For en bank som skal følge lovpålagte regler, er det uakseptabelt
  • LLM-er er svarte bokser. Reguleringsmyndigheter og revisorer kan ikke se nøyaktig hvorfor en LLM tok en bestemt avgjørelse. Forretningsregelplattformer logger derimot hele beslutningsprosessen

Banklån-eksempelet: Ni agenter i praksis

Taylor bruker hele videoen på å vise hvordan en bank kan bygge et AI-system for å behandle lånesøknader. Eksempelet: en kunde vil låne penger til en båt. Ni ulike agenter samarbeider for å håndtere alt fra den første chatten til ferdig lånevedtak (1:06).

Agentene som bruker LLM-er

Seks av de ni agentene bruker store språkmodeller fordi de håndterer ustrukturert språk, dokumenttolkning eller naturlig kommunikasjon.

1

Agent 1 — Chat-agenten (LLM)

Oppgave: Forstå hva kunden ønsker. Kunden skriver fritt (kanskje med skrivefeil eller omstendelige forklaringer), og chat-agenten gjør om dette til en strukturert forespørsel som resten av systemet kan jobbe med. Taylor beskriver denne som en klassisk LLM-oppgave: forstå hensikt, tolke språk og håndtere ulike formuleringer (1:34).

2

Agent 2 — Orkestreringsagenten (LLM)

Oppgave: Bestemme hvilken spesialisert agent som skal håndtere forespørselen. Orkestreringsagenten slår opp i et register over tilgjengelige agenter og finner den som passer. Taylor forklarer at denne agenten bruker en LLM til å koble kundens behov til riktig agent i registeret (2:59).

3

Agent 3 — Lånepolicy-agenten (LLM + RAG)

Oppgave: Svare på spørsmål om bankens retningslinjer. Denne agenten bruker hentingsbasert generering (Retrieval-Augmented Generation / RAG, en teknikk der AI-en først henter relevante dokumenter fra en database, og deretter formulerer et svar basert på dem). Bankens dokumenter (produktbeskrivelser, risikoretningslinjer, markedsmateriell) lagres i en vektordatabase (vector database, en spesialisert database som lagrer tekst som tallverdier for rask likhetssøk). Taylor beskriver hvordan ulike regelagenter kan bruke forskjellige delmengder av dokumentene for å svare på ulike typer spørsmål (3:45).

4

Agent 4 — Dokumentinntak-agenten (LLM)

Oppgave: Trekke strukturerte data ut av ustrukturerte dokumenter. Kunden har en brosjyre for båten med bilde, spesifikasjoner, en håndskrevet pris og et stiftet visittkort. Taylor beskriver LLM-er som «bemerkelsesverdig gode» til denne oppgaven: de kan håndtere dårlig trykkvalitet, håndskrift og sammensatte dokumenter uten problemer (11:00).

5

Agent 5 — Følgesvenn-agenten (LLM)

Oppgave: Hjelpe kundebehandleren i banken. Når en lånesøknad havner hos en saksbehandler (fordi systemet ikke er helt sikker på kunden), trenger saksbehandleren rask tilgang til all relevant informasjon: bankdata, kredittvurdering, søknadsdetaljer, båtinformasjon. Følgesvenn-agenten bruker en LLM til å gi svar på tvers av alle disse datakildene (15:01).

6

Agent 6 — Forklaringsagenten (LLM + Beslutningslogg)

Oppgave: Oversette interne beslutningslogger til forståelig språk. Når kvalifiseringsagenten sier «kanskje» i stedet for «ja» eller «nei», finnes det en detaljert logg over hvorfor. Men loggen bruker intern terminologi som kunden ikke forstår. Forklaringsagenten bruker en LLM til å gjøre loggen om til naturlig språk slik at kundebehandleren kan forklare situasjonen for kunden (15:54).

Agentene som IKKE bruker LLM-er

Disse tre agentene er kjernen i Taylors argument. De bruker teknologier som er bedre egnet for oppgavene sine enn LLM-er.

1

Agent 7 — Lånesøknadsagenten (Arbeidsflytplattform)

Oppgave: Styre flertrinnsprosessen for en lånesøknad. En lånesøknad har mange steg, og kunden fullfører sjelden alt i én økt. Taylor forklarer at denne agenten bruker en arbeidsflytplattform, altså programvare som definerer prosessen visuelt med BPMN (Business Process Model and Notation, et standardisert modelleringsspråk for arbeidsprosesser) og husker nøyaktig hvor hver kunde befinner seg i prosessen (6:04). Kunden kan gå og hente ungene fra skolen, komme tilbake neste dag, og fortsette der de slapp. Taylor kaller dette den første agenten i systemet som ikke trenger en LLM.

2

Agent 8 — Kvalifiseringsagenten (Forretningsregelplattform)

Oppgave: Avgjøre om kunden er kvalifisert for lån. Taylor poengterer at dette er en dårlig oppgave for LLM-er fordi banken må ta konsistente, transparente og reviderbare beslutninger. Samme logikk skal gjelde for alle kunder, og reguleringsmyndigheter skal kunne se nøyaktig hvorfor en avgjørelse ble tatt. En forretningsregelplattform (BRMS) gjør nettopp dette (8:17).

3

Agent 9 — Dataagenten (Datateknologi via MCP)

Oppgave: Hente kunde- og eksterndata. Arbeidsflyt-agenten trenger data fra bankens interne systemer og fra eksterne kilder som kredittopplysningsbyråer. Dataagenten bruker datateknologi gjort tilgjengelig gjennom MCP (Model Context Protocol, en protokoll som lar AI-agenter koble seg til eksterne datakilder og verktøy) for å hente og levere denne dataen til de andre agentene (9:35).

Forklart enkelt:

Forklart enkelt: Tenk deg et orkester. Dirigenten (orkestreringsagenten) bestemmer hvem som skal spille når. Noen musikere spiller fiolin (LLM-agenter som er gode på språk), mens andre spiller slagverk (regelbaserte agenter som holder takten presis og forutsigbar). Du ville aldri bedt fiolinisten holde takten for hele orkesteret. Det er slagverkerens jobb. I motsetning til et ekte orkester, der alle musikerne er mennesker med samme type intelligens, har AI-agenter fundamentalt forskjellige styrker og begrensninger avhengig av teknologien de er bygget på.


Hvordan det hele henger sammen

Taylor beskriver en konkret flyt der kunden først stiller et spørsmål, deretter søker om lån, og til slutt får hjelp av en saksbehandler (1:06).

Fase 1: Spørsmål om lånepolicy. Kunden spør om banken låner ut penger til båter. Chat-agenten tolker spørsmålet, orkestreringsagenten finner lånepolicy-agenten, og kunden får et svar basert på bankens dokumenter. Så langt trengs bare LLM-er.

Fase 2: Søknadsprosessen. Kunden vil søke. Nå aktiveres lånesøknadsagenten (arbeidsflyt), kvalifiseringsagenten (forretningsregler), dataagenten (MCP) og dokumentinntak-agenten (LLM). Systemet skifter fra ren samtale til strukturert saksbehandling, og det er her de ikke-LLM-baserte agentene blir avgjørende.

Fase 3: Menneskelig hjelp. Beslutningen er «kanskje». En saksbehandler kobles inn. Følgesvenn-agenten hjelper saksbehandleren med å navigere all informasjonen, og forklaringsagenten oversetter den interne beslutningsloggen til forståelig språk. Når problemet er løst, sender arbeidsflyt-agenten søknaden tilbake til kvalifiseringsagenten for en ny vurdering (17:09).


Sjekkliste: Vanlige feil med AI-agenter

Basert på Taylors gjennomgang, her er de vanligste feilene organisasjoner gjør når de bygger agentsystemer:

  • Bruker du LLM til alt? Taylor er tydelig: LLM-er er fantastiske til å forstå språk, trekke ut data og forklare ting, men de er feil verktøy for å huske hvor langt en prosess har kommet, ta konsistente beslutninger og oppfylle regulatoriske krav
  • Mangler agenten din hukommelse? Hvis en prosess har flere steg og brukeren kan gå fra og komme tilbake, trenger du en arbeidsflytplattform. LLM-er alene glemmer alt mellom øktene (6:45)
  • Kan du forklare beslutningene? Reguleringsmyndigheter krever innsyn i hvordan avgjørelser tas. Hvis AI-systemet ditt er en svart boks, er det et problem. Forretningsregelplattformer gir full sporbarhet (9:09)
  • Gir systemet forskjellige svar til forskjellige kunder med lik situasjon? Det er et tegn på at du bruker en LLM der du burde bruke forretningsregler. Konsistens er ikke valgfritt i regulerte bransjer
  • Er agentene dine koblet sammen? Taylor viser hvordan MCP brukes til å gjøre teknologier tilgjengelig som tjenester slik at agenter kan samarbeide (7:58). Uten en slik kobling jobber agentene i siloer
Husk:

Husk: Poenget er ikke å unngå LLM-er. De er en sentral del av systemet. Poenget er å bruke dem til det de er gode på, og velge andre teknologier der LLM-er kommer til kort.

Praktiske implikasjoner

For deg som utforsker AI-agenter

Start med å kartlegge oppgavene systemet ditt skal løse. Spør deg selv: krever denne oppgaven konsistente svar? Må brukeren kunne gå fra og komme tilbake? Må avgjørelsen kunne forklares til en tredjepart? Hvis svaret er ja på noen av disse, trenger du mer enn en LLM.

For team som bygger produksjonssystemer

Følg Taylors mønster: bruk en orkestreringsagent som videresender forespørsler til spesialiserte agenter basert på oppgavetype. Definer agentene i et register slik at orkestreringsagenten kan finne dem automatisk. Gjør ikke-LLM-teknologier tilgjengelig (arbeidsflyt, regler, data) som tjenester via MCP.

For regulerte bransjer

Kombiner LLM-baserte agenter med forretningsregelplattformer for alle beslutninger som krever transparens og revisjonsspor. Bruk forklaringsagenter til å oversette interne logger til naturlig språk. Det gir både kundebehandlere og reguleringsmyndigheter innsyn uten å ofre teknisk presisjon.

Test deg selv

  1. Arkitekturvalg: Du bygger et AI-system for en forsikringssak der kunden melder skade. Hvilke av de ni agenttypene fra banklån-eksempelet ville du brukt, og hvilke ville du droppet?
  2. Avveining: Når er det bedre å bruke en LLM til å ta en beslutning, selv om en forretningsregelplattform ville gitt mer konsistente svar? Tenk på situasjoner der konsistens ikke er det viktigste.
  3. Overføringsverdi: Taylor bruker MCP for å la agenter kommunisere med datakilder. Hvordan ville du brukt en lignende tilnærming i et system som ikke handler om bank, for eksempel et smart hjem?
  4. Atferd: Hvis et AI-system tar alle beslutningene med forretningsregler og LLM-er bare håndterer kommunikasjonen — hvordan kan det endre måten kundebehandlere jobber på?
  5. Arkitektur: Forklaringsagenten oversetter beslutningslogger til naturlig språk. Hva kan gå galt hvis forklaringen ikke stemmer overens med den faktiske beslutningslogikken?

Ordliste

BegrepForklaring
AI-agentEt AI-system som kan handle selvstendig: ta beslutninger, hente data og utføre oppgaver. Tenk på det som en digital medarbeider med et spesifikt ansvarsområde.
Arbeidsflytplattform (Workflow platform)Programvare som styrer flertrinnsprosesser. Den husker hvor langt du har kommet, hva neste steg er, og kan håndtere avbrudd. Som et stafettløp der stafettpinnen alltid vet hvem som skal ha den neste.
BPMN (Business Process Model and Notation)Et standardisert visuelt språk for å tegne arbeidsprosesser. Tenk på det som et flytskjema med faste symboler som alle forstår likt.
BRMS (Business Rules Management System)Et system for å definere, teste og kjøre forretningsregler. I stedet for å kode reglene direkte i programmet, legger du dem i et eget system der fagfolk kan oppdatere dem uten å endre koden.
Forretningsregler (Business rules)Eksplisitte regler som styrer beslutninger: «Kunder under 18 år kan ikke få lån» eller «Båtlån over 2 millioner krever ekstra godkjenning». De sikrer at like tilfeller behandles likt.
Flermetode-agenthåndtering (Multi-method agentic AI)Å kombinere LLM-er med arbeidsflyt, forretningsregler og maskinlæring i ett agentsystem. Hver agent bruker teknologien som passer best for sin oppgave.
LLM (Large Language Model)En stor språkmodell: en AI trent på enorme mengder tekst som kan forstå og generere naturlig språk. ChatGPT, Claude og Gemini er eksempler. Sterk på språk, svak på konsistens og å huske fremdrift.
MCP (Model Context Protocol)En protokoll som lar AI-agenter koble seg til eksterne datakilder og verktøy. Fungerer som en universell adapter mellom agenter og systemer de trenger tilgang til.
OrkestreringsagentEn agent som koordinerer andre agenter. Den mottar en forespørsel, finner ut hvilken spesialisert agent som kan håndtere den, og sender forespørselen videre. Som en resepsjonist som sender deg til riktig avdeling.
RAG (Retrieval-Augmented Generation)En teknikk der AI-en først henter relevante dokumenter fra en database, og deretter formulerer et svar basert på dem. I stedet for å svare fra hukommelsen, slår den opp i kildene først.
Tilstand / Fremdrift (State)Informasjon om hvor langt en prosess har kommet. «Kunden har fylt ut steg 1 og 2, men ikke steg 3» er fremdriftsinformasjon. LLM-er har ikke innebygd evne til å lagre dette mellom forespørsler. Også kalt «tilstand» i teknisk sammenheng.
Vektordatabase (Vector database)En database som lagrer tekst som tallverdier (vektorer) slik at du raskt kan finne lignende innhold. Brukes sammen med RAG for å finne relevante dokumenter.

Kilder og ressurser