Hopp til innhold
Tilbake til artikler

OpenAI lander på AWS når Microsoft-eksklusiviteten ender

28. april 2026/4 min lesing/894 ord
AWSOpenAIMicrosoftAI AgentsCodex
AWS-sjef Matt Garman intervjuet av Ed Ludlow på Bloomberg Technology
Bilde: Skjermbilde fra YouTube.
Publisert April 28, 2026
Bloomberg Technology
Bloomberg Technology
Vertskap:Ed Ludlow
AWS
Gjest:Matt GarmanAWS

Dette er et AI-generert sammendrag. Kildevideoen kan inneholde demonstrasjoner, visuelt innhold og ytterligere kontekst.

Se videoen · Slik genereres artiklene

Kort fortalt

Matt Garman ble toppsjef i AWS (Amazon Web Services) i juni 2024, etter nesten tjue år i selskapet. 28. april 2026 satt han i et Bloomberg Technology-studio hos Ed Ludlow og kunngjorde noe ingen kunne ha kunngjort en uke tidligere: OpenAIs toppmodeller kjører nå på Amazon Bedrock, AWS sin markedsplass for AI-modeller.

Timingen var ikke tilfeldig. Mindre enn et døgn før hadde OpenAI avsluttet eksklusivitetsavtalen med Microsoft om sky-tjenester. AWS grep sjansen umiddelbart, med tre produkter i preview (tidlig tilgang for utvalgte kunder): GPT-5.5, OpenAIs kodeagent Codex, og et nytt fellesprodukt som heter Managed Agents.

Ludlow stilte de skarpe spørsmålene. Hvis OpenAI er tilgjengelig overalt nå, hva er egentlig argumentet for å bruke det gjennom Bedrock? Og hvordan tenker Garman om at Microsoft fortsatt får betalt?

Hva som faktisk er nytt

Tre ting kom til Bedrock samtidig. Det er enklest å lese som en tabell:

ProduktHva det erStatus
GPT-5.5OpenAIs toppmodell, den mest kapable de harPreview i dag, full tilgjengelighet om noen uker
CodexOpenAIs kodeagent, vokst fra 2 til 4 millioner brukere på få ukerPreview på Bedrock
Managed AgentsFelles AWS-OpenAI-tjeneste som tar seg av det tekniske grunnarbeidet med å kjøre AI-agenterPreview, eksklusivt på AWS

De to første er den åpenbare nyheten. Garman vender stadig tilbake til det tredje punktet, og det er verdt å forstå hvorfor.

En "managed agent" er at AWS tar seg av de kjedelige, vanskelige delene av å drive en AI-agent for deg: holde på minnet mellom samtaler, koble agenten til verktøy, håndtere feil og skalere opp ved behov. Slik Garman selv sier det er det "a complete managed agent capability", og du får OpenAI-versjonen bare hos AWS.

Ludlows spørsmål: hvorfor egentlig gjennom Bedrock?

Hvis du kan få OpenAI direkte fra OpenAI, eller via Microsoft Azure, eller nå via AWS, hvorfor gå veien om Bedrock? Det er i bunn og grunn det Ludlow spør om.

Garmans svar har to deler.

Del én: kundene vil egentlig ikke velge. Det meste av bedriftsdataene ligger allerede på AWS. De fleste bedriftsapplikasjonene kjører allerede på AWS. Inntil i dag måtte et selskap som ville bruke GPT-5 sette opp en Azure-konto, flytte data og passe på sikkerheten to steder samtidig. Det slipper de nå.

Del to: Managed Agents finnes bare her. Det er fordelen Garman peker på. Selve toppmodellen er på vei til å bli en hyllevare, og alle skyer kommer til å tilby alle de store modellene før eller siden. Men rammeverket rundt modellen, det som gjør den til noe en bedrift kan rulle ut, er laget der AWS tror de kan vinne.

Sammenligningen Garman selv bruker, er Anthropic. AWS gjorde Claude lett å bruke gjennom Bedrock, og fikk del i Anthropics vekst tilbake. Satsingen er at det samme mønsteret gjentar seg med OpenAI.

Microsoft-spørsmålet

Her blir intervjuet interessant. Selv om eksklusiviteten med Microsoft er over, betaler OpenAI fortsatt Microsoft under reviderte vilkår. Ludlow spør Garman, omtrent, hvordan han tenker om å være den nye partneren mens den gamle fortsatt får sin del.

Garman virker uberørt. Slik han forklarer det: AWS har betalt Microsoft for Windows-lisenser siden 2007 eller 2008. Microsoft har tjent på at skyen vokser helt fra starten, og det er greit. SQL Server, Microsofts database, kjører også på AWS. Kundene vil ha det de vil ha, og skyene gjør opp seg imellom.

Det er et glatt svar, men det undervurderer hvor rart øyeblikket er. For et år siden var OpenAI Microsofts eksklusive skysatsing, og AWS bygget Anthropic. I dag kjører begge AI-laboratoriene overalt, og skyene konkurrerer om å være det enkleste stedet å bruke dem.

Det Garman selv vil snakke om

De fleste av Ludlows spørsmål handler om toppmodeller. Garman, når han får sjansen, endrer tema, og endringen er verdt å legge merke til.

Han bruker god tid på tre AWS-produkter som ikke er modeller i det hele tatt:

  • Amazon Q, en produktivitetsassistent der desktop-appen lanseres i dag. Den jobber på tvers av e-post, Slack og resten av arbeidsdagen, og lærer over tid hvem du skriver til og hvordan.
  • Amazon Connect, et sett med agentapplikasjoner for forsyningskjede, kundesentre og helse.
  • Kiro, AWS sitt verktøy for koding.

AWS klatrer oppover i skytjenestene: fra rå infrastruktur (servere, lagring) til databaser, AI-modeller og nå ferdige applikasjoner. Bransjen kaller denne lagdelingen stacken. Det setter AWS i direkte konkurranse med Salesforce, ServiceNow og SAP, selskaper AWS tidligere kalte partnere.

På spørsmål om dette noen gang blir en betydelig andel av AWS-omsetningen, svarer Garman ja. I dag er nesten all AI-omsetning toppmodeller på Bedrock. Han mener applikasjonslaget er neste etappe.

Hva dette betyr

Overskriften er partnerskapet. Den dypere historien er at modellaget blir et lag du leier, ikke et lag du satser på. OpenAI kjører på Microsoft og AWS. Anthropic kjører på AWS og Google. Åpne modeller kjører overalt.

Det gjør lagene rundt modellen (infrastrukturen for agenter, applikasjonene, sikkerheten og hvor dataene ligger geografisk) til stedet der skyleverandørene faktisk konkurrerer. Garmans intervju, lest nøye, handler om den konkurransen. OpenAI-partnerskapet er overskriften, men Managed Agents og Amazon Q er satsingen.

Det er også et lavmælt poeng verdt å merke seg. På spørsmål om AI-kapasiteten har tatt igjen etterspørselen, svarer Garman nei. Verden mangler fortsatt strøm, brikker og minne. Alle skyer, også AWS, selger fortsatt mindre enn kundene ville kjøpt.

Ordliste

BegrepForklaring
BedrockAWS sin markedsplass for AI-modeller. Ett tilkoblingspunkt (API), mange modeller fra ulike laboratorier
CodexOpenAIs kodeagent, brukt til programmeringsoppgaver
toppmodell (frontier model)Den mest kapable AI-modellen et laboratorium har bygget. GPT-5.5, Claude Opus og Gemini Ultra hører hjemme her
Managed AgentsAWS-tjeneste som tar seg av det tekniske grunnarbeidet for å kjøre en AI-agent: minne, verktøy og feilhåndtering
stacken (the stack)Slik skybransjen beskriver det de selger: infrastruktur i bunn, så databaser, så AI-modeller, og applikasjoner på toppen

Kilder og ressurser

Del denne artikkelen