Hopp til innhold
Tilbake til artikler

Box-sjefen: Derfor feiler store bedrifter på AI

28. april 2026/9 min lesing/1,827 ord
AI AgentsAI InfrastructureAI and EmploymentGenerative AI
Steven Sinofsky, Aaron Levie og Martin Casado diskuterer bedrifts-AI på a16z-podkasten
Bilde: Skjermbilde fra YouTube.
KildeYouTube
Publisert 28. april 2026
a16z
a16z
Vertskap:Steven Sinofsky, Martin Casado
Box
Gjest:Aaron LevieBox

Dette er et AI-generert sammendrag. Kildevideoen kan inneholde demonstrasjoner, visuelt innhold og ytterligere kontekst.

Se videoen · Slik genereres artiklene

Kort fortalt

De fleste store bedrifter er fortsatt dårlige på AI, og standardforklaringen er at de er trege. Aaron Levie, sjefen i Box, mener det er feil diagnose. I en panelsamtale på a16z sammen med styremedlem Steven Sinofsky og partner Martin Casado la han frem en annen lesning: teknologien passer rett og slett ikke til måten store organisasjoner faktisk jobber på ennå, og gapet vil ta år å lukke.

Samtalen kutter gjennom oppstyret på tre fronter. Hvorfor toppstyrte AI-pålegg fra ledelsen feiler. Hvorfor agentene møter den samme integrasjonsveggen som mennesker møter. Og hvorfor de som spår massivt jobbtap gjentar en spådom som har vært feil i seksti år.

Gapet mellom Silicon Valley og resten

Levie bruker ukene sine på å besøke kunder, og han beskriver jobben sin som å "bringe virkeligheten til Silicon Valley og Silicon Valley til virkeligheten". Gapet er større enn de fleste i bransjen forstår.

En ingeniør i Silicon Valley har nær perfekte forhold for AI. Høy teknisk kompetanse. Moderne verktøy de selv velger. Friheten til å feilsøke et system som ikke virker, og fikse det. Og selve arbeidet kan kontrolleres etterpå, som er akkurat det modellene er best på. Ingenting av dette stemmer for resten av kunnskapsarbeidet. Arbeidsflytene er andre. Brukerne er mindre tekniske. Dataene er spredt rundt. Systemene er gamle. Så når Silicon Valley lover at AI-agenter skal drive selskapet ditt innen neste kvartal, ser folk i ekte bedrifter bare forvirret ut.

Casado legger til en vinkel verdt å merke seg. De dypeste teknologitrendene, som det tidlige internett, starter hos enkeltpersoner og flytter seg først senere inn i organisasjonen. ChatGPT er allerede inne i alle store selskaper gjennom folk som bruker det på egen hånd. Det som feiler er den sentraliserte, toppstyrte utrullingen, ikke AI i seg selv. MIT-tallet om at "95 prosent av AI-prosjekter i store bedrifter feiler" er, ifølge ham, feil lest, fordi tallet måler det formelle programmet, ikke den faktiske bruken hos de ansatte.

Styret, konsulenten og det dødfødte AI-prosjektet

Sinofsky og Casado har begge sittet i bedriftsstyrer, og de beskriver en velkjent syklus. Styret sier til toppsjefen at de trenger mer AI. Toppsjefen henter inn konsulenter. Konsulentene bygger et sentralt prosjekt som ingen i driften skjønner. Det dør stille, og så får AI skylden.

To ting forsterker problemet. Det første er token-tellingen. Flere store selskaper måler nå produktiviteten til ansatte i hvor mange AI-tokens (måleenhetene man betaler AI-bruk i) de brenner. Det forutsigbare resultatet er ingeniører som ber agenter gjøre meningsløst arbeid bare for å pumpe opp tallet. Casado siterer en ansatt i et av disse selskapene som innrømmer det rett ut. Du får det du måler.

Det andre er arkitektonisk lammelse (man klarer ikke å velge teknisk retning fordi alternativene endrer seg for fort). For tre år siden var svaret på "hvordan ruller man ut agenter" et helt annet enn i dag. Skal agenten kjøre i din sky eller deres? I nettleseren eller som en prosess? Med hvilke verktøy? Selskaper som valgte tidlig brente seg ofte. Levie ser nå IT-direktører som står fast midt i en debatt mellom to-tre rammeverk, uten å kunne forplikte seg, fordi teknologien beveger seg raskere enn arkitekturbeslutninger i store bedrifter rekker å sette seg. Å stå stille føles tryggere enn å velge feil.

Behandle AI som en bruker, ikke som programvare

Dette er den nye måten å tenke på som Casado vil at folk skal forstå, og det er kanskje den mest nyttige ideen i hele samtalen. Slutt å integrere AI i programvaren din. Behandle AI som en bruker av programvaren.

For seks måneder siden bygget alle programvareselskaper AI inn i det eksisterende grensesnittet, det klassiske "chat-med-produktet"-mønsteret. Den hybriden kollapser nå. Det nye er: ta produktet ditt, eksponer det som et CLI (kommandolinjegrensesnitt: et tekstbasert grensesnitt som programmer kan styre) eller som rene API-er (måter for programmer å snakke sammen), og la agenten bruke det på samme måte som et menneske ville gjort. Agenten kjører i en separat ramme som Claude Code eller Codex, og produktet ditt blir noe agenten konsumerer.

Hvorfor fungerer det bedre? Fordi LLM-er (store språkmodeller) er ikke-deterministiske (samme spørsmål kan gi forskjellige svar) og håndterer de mange varierte og rotete problemene fra virkeligheten. Det er menneskelige egenskaper, ikke programvare-egenskaper. Casados poeng treffer hardt: vi har brukt førti år på å bygge tilgangskontroller, prosesser og designmønstre nettopp for å håndtere uforutsigbare mennesker. Hvis du behandler agenten som en ny ansatt, gir den en e-postadresse, en lisens, en identitet og samme rettigheter som en kollega på tilsvarende nivå, kan du dra nytte av hele den infrastrukturen. Hvis du behandler den som programvare, kjemper du imot.

Det er også derfor han er skeptisk til "SaaS-apokalypsen", teorien om at agenter skal erstatte alle brukerlisensene bedrifter betaler for. En agent er enda en brukerlisens. Det er ingen vei utenom. Den må ha en egen identitet. Den kan ikke dele brukernavn og passord med et menneske uten at sikkerheten ryker. Prismodellen kan endre seg, men selve lisensen forsvinner ikke.

Integrasjonsveggen AI ikke fjerner

Sinofsky stiller spørsmål ved den optimistiske delen. "Behandle agenten som en bruker" høres greit ut, men ekte brukere møter vegger hele tiden. Enhver bedrift med over tusen ansatte, eller eldre enn ti år, er en haug med systemer som har stått og ventet på å bli koblet sammen, og AI hjelper egentlig ikke til med å koble noe sammen.

Han beskriver den menneskelige versjonen. Du ringer kundeservice. Personen i den andre enden klarer ikke hjelpe deg, så du blir kastet videre. Den neste klarer det heller ikke fordi det er et annet system. Til slutt finner du noen med riktig tilgang. En AI-agent skjønner ingenting av dette. Den treffer en tilgangsvegg og blir stående fast, fordi ingen har sagt til den at den skal ringe Sally i HR (personalavdelingen) eller Bob i økonomi.

Det er også derfor nyheten om at OpenAI samarbeider med Accenture og Deloitte om å rulle ut bedrifts-AI var, for Sinofsky, årets mest opplagte kunngjøring. Store bedrifter trenger store team av systemintegratorer bare for å koble AI til eksisterende data og prosesser. Overskriften om at "agenter vil erstatte konsulentene" har det opp ned. Du trenger konsulentene for at agentene i det hele tatt skal fungere.

Salesforce blir hodeløs: et varsel for SaaS-bransjen

Den største bedriftsnyheten Levie ville løfte frem: Salesforce har annonsert at de blir helt hodeløse. Et "hodeløst" produkt har ikke noe brukergrensesnitt, det er ment å styres av annen programvare. Salesforce innrømmer åpent at den viktigste brukeren av CRM-data (data om kunder) fremover ikke er en selger, men en agent som handler på vegne av en.

Den beslutningen åpner for et helt annet nivå av bruk. Et menneske henter data fra CRM-systemet noen ganger om dagen. En agent kjører 500 spørringer samtidig på sekunder for å kartlegge alle kontoene før et møte. Plutselig er flaskehalsen ikke hvor fort mennesket kan skrive, men hvor mye SaaS-tjenesten (programvare som leveres i skyen) tåler. Levie advarer om at mange SaaS-produkter vil kollapse første gang de møter agenttrafikk, akkurat som ERP-systemene (systemer for ressursplanlegging) brøt sammen da BI-verktøyene (rapportverktøyene) begynte å laste ned hele databasen hver natt.

Det tvinger også frem nye prisspørsmål. Skal agenter være brukerlisenser? Skal man betale per API-kall? Eller skal agenter få sin egen priskategori? Ingen har svaret ennå. Når Salesforce tar dette valget, følger resten av bedriftsprogramvaren ofte etter. Konkurransen handler nå om å tilpasse alle SaaS-produkter slik at agenter kan styre dem direkte, og selskapene som velger riktig retning tidlig får en varig fordel over de som fortsatt bygger chat-vinduer.

AI-koding gjør systemene mer komplekse, ikke enklere

Levie er en av de tydeligste toppsjefene som snakker om AI-koding, og han sier noe få av kollegene tør si fra scenen. Box får 2 til 3 ganger produktivitetsøkning fra AI-koding, ikke 10 ganger. Grunnen er ikke modellen. Modellen skriver allerede 80 til 90 prosent av all ny kode i Box. Flaskehalsen er alt rundt: kodegjennomgang, sikkerhetsgjennomgang, utrullingsprosessen. Du kan sende ut nye versjoner raskere, men bare så raskt som kontrollene tillater.

Casado tar poenget videre. AI-skrevet kode blir dårligere over tid raskere enn kode mennesker skriver, og bransjen har ikke funnet ut hvordan det skal håndteres ennå. Vibe-koding (stilen der du lar AI-en generere kode med lite manuell gjennomgang, oppkalt etter den løse, intuitive følelsen i arbeidsflyten) fungerer fint for engangsprototyper. Den fungerer ikke for systemer som skal stå i ti år.

I Levies ord, det morsomste konseptet i debatten er at mer kode betyr færre ingeniører. Det er motsatt. Hvert nye system er mer komplekst enn det det erstattet. Mer programvare betyr flere oppgraderinger, flere nedetider, flere sikkerhetshendelser, flere mennesker som må holde det hele oppe. Store bedrifter overlever nettopp fordi de pakker ingeniørene inn i kontroller (gjennomganger, revisjoner, trege utrullinger) som AI gjør raskere, men aldri fjerner.

Jobbtap-feillesningen: seksti år med å bomme

Det avsluttende argumentet er det mest optimistiske i panelet, og det hviler på historie. Sinofsky henter frem eksempler som speiler dagens spådommer:

ÅrSpådomHva som faktisk skjedde
1965IBMs salgsargument: datamaskiner vil erstatte regnskapsførereRegnskapsbransjen vokste massivt fordi selskapene fikk råd til mer analyse
1981Time magazine-forside: datamaskiner vil automatisere papiret ut av kontorenePapirforbruket steg i to tiår til, og nye kategorier kontorarbeid dukket opp
1995"The End of Work" spår massearbeidsledighet fra automatiseringInternettboomen skapte millioner av nye jobbkategorier
2026AI vil eliminere kunnskapsarbeidSamme bom, nye verktøy

Levies argument er enkelt. Et selskap er en maskin som behandler informasjon, og begrensningen har aldri vært hvor fort informasjon produseres, men hvor effektivt den blir brukt og fulgt opp. AI gjør produksjonen raskere. Det gjør ikke arbeidet lettere for de som skal ta informasjonen i bruk, fordi det fortsatt krever skjønn, sammenheng og noen som er villig til å stå ansvarlig.

Det er derfor de AI-native selskapene (selskaper som er bygd rundt AI fra start) ansetter raskest, hvorfor infrastrukturselskaper vokser i stedet for å krympe, og hvorfor ingeniørjobbene vil spres langt utenfor Silicon Valley. Neste generasjon ingeniører jobber ikke i Google. De jobber hos John Deere som automatiserer traktorer, hos Caterpillar som bygger AI for tungt utstyr, og hos Eli Lilly som designer legemidler.

Hva dette egentlig handler om

Diagnosen i panelet er konsekvent på tvers av de tre stemmene, selv når de er uenige om detaljer. Bedrifts-AI er vanskelig, men ikke fordi bedriftene er trege eller dumme. Det er vanskelig fordi:

  • Teknologien endres raskere enn arkitekturbeslutninger rekker å sette seg
  • AI løser ikke integrasjon, som er der det meste av det reelle arbeidet alltid har ligget
  • Produktivitetsgevinstene er ekte, men alltid begrenset av kontrollene som hindrer store bedrifter i å rakne
  • Å behandle agenter som brukere, ikke som programvare, er den viktigste endringen de fleste bedrifter ennå ikke har gjort

Spredningen vil ta år. I mellomtiden er det enkeltansatte, ikke sentraliserte programmer, som faktisk får AI til å fungere i bedriftene. Det er det egentlige signalet, og det er det de fleste styrerom fortsetter å overse.

Ordliste

BegrepForklaring
AgentEn AI som utfører oppgaver på egen hånd, åpner apper, kaller API-er og handler i flere steg, i stedet for bare å svare på spørsmål
APIProgrammeringsgrensesnitt, en standard måte for programmer å snakke sammen og utveksle data
LLM (stor språkmodell)AI-typen bak ChatGPT, Claude og Gemini. Trent på enorme tekstmengder, gir sannsynlighetsbaserte svar
Ikke-deterministiskSamme spørsmål kan gi forskjellige svar, slik et menneske resonnerer, ikke som et oppslag i en database
Hodeløs (headless)Et produkt uten brukergrensesnitt, ment å styres av annen programvare (eller agenter) gjennom API-er
CLI (kommandolinjegrensesnitt)En tekstbasert måte å bruke programvare på, lettere for programmer og agenter å styre enn et grafisk grensesnitt
SaaSProgramvare som leveres som tjeneste over internett. Du betaler abonnement i stedet for å installere noe lokalt
CRMSystem for å holde styr på kundedata. Salesforce er det største
TokenMåleenheten AI-bruk faktureres i, både for inn- og utdata. Ingeniører som konkurrerer om token-volum er en ny dårlig praksis
MCP (Model Context Protocol)En fremvoksende standard som lar agenter kalle inn i et programvareprodukts data og handlinger
Vibe-kodingEn løs, AI-drevet kodestil der utvikleren ber en agent skrive kode og godtar det meste uten dyp gjennomgang

Kilder og ressurser

Del denne artikkelen