Hopp til innhold
Tilbake til artikler

Models as a Service: Kjør AI som din egen sky

26. mars 2026/3 min lesing/661 ord
IBMAI SecurityAI AgentsGenerative AIOpen Source
Cedric Clyburn forklarer Models as a Service på IBM Technology-kanalen
Bilde: Skjermbilde fra YouTube.

Nøkkelinnsikt

  • MaaS skifter AI fra leie til eierskap: du blir din egen AI-leverandør i stedet for å sende data og penger til tredjeparts-API-er.
  • Modell-utfasing er en skjult kostnad ved offentlige API-er: når leverandøren avvikler en modell, bryter applikasjonene dine og noen må rydde opp.
  • Isolert AI er nå mulig: RAG og agenter kan kjøre helt på egne servere uten noen avhengighet til offentlig sky, noe som åpner AI for regulerte bransjer.
KildeYouTube
Publisert 24. mars 2026
IBM Technology
IBM Technology
Vertskap:Cedric Clyburn

Dette er et AI-generert sammendrag. Kildevideoen kan inneholde demonstrasjoner, visuelt innhold og ytterligere kontekst.

Se videoen · Slik lages artiklene

Kort fortalt

De fleste har brukt AI gjennom offentlige API-er (grensesnitt for programvare): du sender spørringen, modellen svarer, og pengene og dataene dine reiser til en tredjepart. Cedric Clyburn fra IBM Technology forklarer et alternativ som stadig vinner terreng: Models as a Service (MaaS), der organisasjoner kjører sine egne AI-modeller på egne servere og betjener hele teamet gjennom én felles inngang. Du leier ikke lenger AI av noen andre. Du er din egen leverandør.

Fra leie til eierskap

Mønsteret ligner på det vi kjenner fra programvare: akkurat som Gmail og Dropbox leveres gjennom programvare-som-tjeneste (SaaS), leveres AI-modeller gjennom ett felles API. IT-teamet setter opp infrastrukturen og bestemmer hvilke modeller som er tilgjengelige. Utviklerne bruker dem via en standardisert inngang. Sluttbrukerne får AI-drevne applikasjoner uten å vite eller bry seg om hva som kjører bak.

Forskjellen fra å bruke OpenAI eller Google direkte er at du nå kontrollerer alt: hvilke modeller som kjører, hvem som har tilgang, og hva det koster.

Det skjulte problemet med offentlige API-er

Det er én ting som sjelden snakkes om høyt: modell-utfasing. Når leverandøren slipper en ny frontlinje-modell, avvikles de eldre versjonene, noen ganger uten særlig varsel. Plutselig er versjon 5 borte, og alle applikasjoner som var bygget på den, er nødt til å oppgraderes til versjon 6.

Det høres kanskje enkelt ut, men det er det sjelden. Spørsmålmaler (prompt templates) fungerer ikke alltid likt fra modell til modell. Atferden endrer seg, og det dukker opp feil som noen må bruke tid på å spore opp og rette. Ringvirkningene kan gå gjennom hele stacken.

Med MaaS bestemmer du selv når og om en modell byttes ut. Du kan hente en ny modell fra Hugging Face, teste den, og rulle den ut på egne premisser.

Personvern som ikke er til forhandling

Tenk på et sykehus eller en bank. De har pasientjournaler og kontonummer. Data som er underlagt strenge lover og regler. Det er ikke bare upraktisk å sende slikt til en tredjeparts AI, det kan være ulovlig.

Med MaaS kan hele infrastrukturen kjøre på egne servere, fullstendig isolert fra internett, i et såkalt air-gapped (fullstendig frakoblet) miljø. Og likevel får du de samme mulighetene: RAG (gjenfinningsforsterket generering, der AI-en slår opp i egne dokumenter før den svarer) og agentisk AI (AI-systemer som kan utføre handlinger og kalle interne tjenester på egenhånd). Alt skjer innenfor egne vegger.

For regulerte bransjer er dette ikke en teknisk nyanse. Det er forskjellen mellom å kunne ta i bruk AI og å ikke kunne det.

Tre lag i arkitekturen

Slik ser det ut i praksis:

Infrastruktur og orkestrering er bunnen. Her brukes åpen kildekode-verktøy som Kubernetes eller Red Hat OpenShift for å samle ressurser fra egne servere, skyen eller edge-noder (datamaskiner som kjører ute i nettverkskanten, for eksempel i fabrikker) til én fleksibel plattform.

AI-plattformlaget sitter oppå der. Her kommer verktøy som vLLM (en effektiv motor for å kjøre store språkmodeller på GPU) og KServe (et åpen kildekode-verktøy som styrer AI-modeller som uavhengige tjenester som kan skaleres hver for seg). Tanken er at hver modell oppfører seg som en liten tjeneste du kan starte, stoppe og skalere etter behov.

API-gatewayen er det brukerne møter. Den håndterer hvem som får tilgang, setter grenser for bruk, sporer hva som konsumeres, og gir deg full oversikt. Og med verktøy som Prometheus, Grafana og Jaeger kan du følge med på hva modellene faktisk gjør, ikke bare om de svarer, men hvorfor de svarer som de gjør.

Én sky, mange team

I stedet for å rulle ut én modell til ett team, og så gjøre det igjen for neste team, deler hele organisasjonen den samme infrastrukturen. Hvert team kaller de modellene de trenger via API-en. Kostnadskontrollen er innebygd. Personvernet er ivaretatt. Og IT-avdelingen har oversikt over alt.

Det er dette som gjør MaaS til en stadig mer vanlig standard for organisasjoner som tar AI på alvor.


Ordliste

BegrepForklaring
Models as a Service (MaaS)Et mønster der organisasjonen kjører egne AI-modeller bak en felles API-gateway, i stedet for å bruke tredjeparts tjenester.
API-gateway (API gateway)En felles inngang som styrer hvem som kan bruke AI-modellene, setter grenser for bruk og holder oversikt over kostnader.
RAG (Retrieval-Augmented Generation)En teknikk der AI-en slår opp i egne dokumenter eller databaser før den svarer, slik at svarene baserer seg på din private informasjon.
Agentisk AI (Agentic AI)AI-systemer som kan utføre handlinger på egenhånd, som å kalle databaser eller andre tjenester, i stedet for bare å generere tekst.
Air-gapped (isolert)Et system som er fullstendig frakoblet internett, slik at ingen data kan lekke ut til omverdenen.
vLLMEn åpen kildekode-motor for å kjøre store språkmodeller effektivt på GPU-er.
KServeEt åpen kildekode-verktøy som lar deg styre AI-modeller som uavhengige tjenester på Kubernetes.
Suveren AI (Sovereign AI)AI-infrastruktur som en organisasjon eller et land fullt ut kontrollerer selv, uten avhengighet til utenlandske skyleverandører.

Kilder og ressurser

Del denne artikkelen