Hopp til innhold
Tilbake til artikler

Hva er AI-agenter, og hva mangler de?

15. mars 2026·5 min lesing·1,025 ord
AIAI-agenterAWSautomatisert resonneringTED
Swami Sivasubramanian holder foredrag om AI-agenter på TEDAI Vienna
Bilde: Skjermbilde fra YouTube.

Nøkkelinnsikt

  • Automatisert resonnering som tillitsmekanisme skiller seg fundamentalt fra vanlige sikkerhetstiltak. I stedet for å begrense hva agenten kan gjøre, beviser systemet matematisk at handlingen er korrekt før den utføres.
  • Selv AWS klarte ikke å hoppe over upålitelighetsfasen. Prototypen til Amazon Q hallusinerte API-kall, noe som tyder på at dette er en grunnleggende utfordring, ikke et ressursproblem.
  • Demokratisering krever nye grensesnitt, ikke bare smartere modeller. Foredraget peker eksplisitt på at forretningsbrukere trenger kjente verktøy, og at agenter trenger simulerte verdener å øve i.
KildeYouTube
Publisert 18. desember 2025
TED
TED
Vertskap:Swami Sivasubramanian

Dette er et AI-generert sammendrag. Kildevideoen inneholder demonstrasjoner, visuelt innhold og kontekst som ikke dekkes her. Se videoen · Slik lages artiklene

Kort fortalt

Swami Sivasubramanian, visepresident for agentisk AI (selvstyrte AI-systemer) hos AWS, hevder i et TED-foredrag at AI-agenter vil bli en av de mest transformative teknologiendringene i vår tid. Men han legger ikke skjul på at vi ikke er der ennå. Sivasubramanian trekker frem tre konkrete milepæler agentene må nå. De må endre måten vi bygger programvare på, bli pålitelige nok til at vi tør stole på dem, og bli tilgjengelige for alle. Foredraget balanserer stor optimisme med en overraskende ærlig innrømmelse av at selv AWS sin egen prototype var upålitelig.


Hva er en AI-agent, egentlig?

Sivasubramanian starter med å rydde opp i begrepsforvirringen. En AI-agent er et selvstendig programvaresystem som bruker kunstig intelligens til å vurdere situasjoner, legge planer og tilpasse seg. Den handler på vegne av brukeren for å nå et definert mål. Det skiller seg fra en chatbot, som bare svarer på det du spør om.

Han bruker et forskereksempel for å vise forskjellen. Forestill deg at du ber en AI om å utforske et nytt protein. En chatbot foreslår seks eksperimenter du kan kjøre. En agent derimot planlegger eksperimentene, skriver koden, kjører testene, analyserer resultatene og «reflekterer over feil» for å forbedre seg. Arbeid som ville tatt en forsker uker, kan ifølge Sivasubramanian gjøres på timer eller minutter.


Milepæl 1: Endre hvordan vi bygger programvare

Den første milepælen handler om å flytte fokus fra «hvordan» til «hva». I dag må utviklere ta hundrevis av tekniske valg bare for å sette opp en nettside. Sivasubramanian illustrerer dette med at AWS sin tjeneste EC2 alene tilbyr 850 ulike konfigurasjoner for datakraft å velge mellom.

Med AI-agenter hevder han at slike tekniske detaljer blir irrelevante. Utviklere vil kunne beskrive hva de vil bygge, og la agentene finne ut hvordan. Det betyr at tekniske valg som hvilken server eller konfigurasjon du trenger, håndteres automatisk.


Milepæl 2: Tillit gjennom automatisert resonnering

Uten tillit spiller ingen av agentenes evner noen rolle, argumenterer Sivasubramanian. Og han er ærlig om at dagens agenter er ufullkomne.

Han forteller om den første prototypen av Amazon Q, AWS sin egen kodeagent. Teamet var begeistret og så for seg at prototypen ville være like dyktig som de beste utviklerne deres. I stedet ble den mer som «en ivrig praktikant». Den hallusinerte API-kall, altså fabrikkerte programmeringskommandoer som ikke fantes.

Løsningen de utviklet kalles en nevrosymbolsk tilbakekoblingsløkke. Konseptet fungerer slik: hver gang agenten genererer en handling, verifiserer et automatisert resonneringssystem matematisk om handlingen er gyldig. Finner systemet en feil, sender det tilbakemelding til agenten som korrigerer seg selv, alt uten menneskelig inngripen. Denne verifiseringen skjer på under 100 mikrosekunder i 95 prosent av tilfellene.

Automatisert resonnering (automated reasoning) er et felt innen informatikk som bruker logikk til å bevise om et system oppfører seg korrekt. I motsetning til vanlige sikkerhetstiltak som begrenser hva en agent kan gjøre, beviser denne metoden at handlingen er riktig før den utføres.


Milepæl 3: Gjøre agentbygging tilgjengelig for alle

Selv om verktøyene for å bygge agenter blir enklere dag for dag, peker Sivasubramanian på at dette ikke er nok. Utviklere som kan Python kan allerede bygge nyttige agenter. Men de fleste mennesker i en bedrift har aldri skrevet en linje kode.

Han bruker Amazon Prime Video som eksempel. Å lage en oppsummering av en TV-serie tok tidligere uker med manuelt arbeid. Filmeksperter er sjelden dyktige programmerere. Med agenter delte teamet arbeidsflyten i tre faser: observasjon (forstå hva som skjer i videoen), resonnering (bestemme hva som bør gjøres) og handling (utføre redigeringen i samarbeid med menneskelige eksperter).

For at agenter virkelig skal endre alt, må grensesnittene bli like kjente for forretningsbrukere som regneark og e-post er i dag. I tillegg trenger agentene simulerte verdener, det Sivasubramanian kaller digitale tvillinger, virtuelle kopier av virkelige systemer der agenter kan øve og forbedre seg.


Motstridende perspektiver

AWS selger det AWS bygger

Det mest åpenbare forbeholdet er at Sivasubramanian er visepresident for agentisk AI hos AWS. Når han hevder at agenter vil forandre alt, markedsfører han samtidig produktene selskapet hans utvikler og selger. Amazon Q, som brukes som hovedeksempel på tillitsproblemet, er AWS sitt eget kommersielle produkt.

Fra prototype til virkelighet

Argumentasjonen beveger seg raskt fra et enkelt eksempel (sjekking av API-kall) til brede påstander om at automatisert resonnering vil gjøre agenter pålitelige nok for utbredt bruk. API-kall har veldefinerte regler som er relativt enkle å kontrollere formelt. Virkelige arbeidsoppgaver er langt mer tvetydige.


Hvordan tolke disse påstandene

Sivasubramanian presenterer en sammenhengende og velstrukturert visjon, men flere spørsmål fortjener oppmerksomhet.

Bevisenes rekkevidde

Det eneste konkrete beviset i praksis er Amazon Q sin kontroll av API-kall. API-er har formelle definisjoner som lar seg sjekke presist. Men de fleste oppgaver agenter skal løse, fra å skrive markedsføringstekst til å planlegge logistikk, har ikke like klare rammer. Det sies lite om hvordan metoden fungerer for oppgaver der «korrekt» ikke kan defineres formelt.

Skal virkelig «alle» kunne bygge agenter?

Påstanden om at «alle» skal kunne bygge agenter krever et enormt sprang fra dagens situasjon. Sivasubramanian nevner at grensesnittene må bli kjente for forretningsbrukere, men gir få konkrete eksempler på hvordan dette skal se ut i praksis. Historien viser at «demokratisering» av teknologi ofte betyr at terskelen senkes, men aldri forsvinner helt.

Den personlige fortellingen

Presentasjonen åpner med Sivasubramanians oppvekst i India, der han hadde ti minutter tilgang til en datamaskin per uke. Historien er gripende og avsluttes med «Your 10 minutes are coming. What will you build?». Det er effektiv overtalelse, men trekker også på en kjent fortellingsmal i teknologibransjen: den personlige reisen fra knapphet til overflod, brukt til å ramme inn et kommersielt budskap.


Praktiske implikasjoner

For utviklere

Nevrosymbolsk tilbakekobling er verdt å følge med på. Hvis konseptet holder det det lover, kan det endre hvordan utviklere bruker AI-kodeassistenter. I stedet for å manuelt sjekke alt agenten produserer, kan automatisk kontroll fange feil før de oppstår.

For beslutningstakere

Sivasubramanians tre milepæler fungerer som en nyttig sjekkliste: Forenkler agenten hvordan vi bygger? Kan vi verifisere at den handler korrekt? Kan ikke-tekniske medarbeidere bruke den? Hvis svaret er nei på noen av disse, er teknologien sannsynligvis ikke moden nok for bred utrulling.


Ordliste

BegrepForklaring
AI-agentSelvstendig programvare som bruker AI til å resonnere, planlegge og handle på vegne av brukeren. Til forskjell fra en chatbot tar den initiativ selv.
ChatbotEn samtalerobot som svarer på det du spør om, men ikke tar selvstendige handlinger.
Automatisert resonneringEt felt innen informatikk som bruker matematisk logikk til å bevise om et system oppfører seg korrekt.
Nevrosymbolsk tilbakekoblingsløkkeEt system der AI-genererte handlinger verifiseres av en matematisk løser før de utføres. Kombinerer nevrale nettverk med symbolsk logikk.
HallusinasjonNår AI genererer noe som høres riktig ut, men som er feil. For eksempel API-kall som ikke finnes.
Digital tvillingEn virtuell kopi av et virkelig system, brukt til testing og simulering.
Agentisk AIAI-systemer designet for å ta selvstendige handlinger, ikke bare generere tekstsvar.
EC2Elastic Compute Cloud, AWS sin tjeneste for å leie datakraft i skyen.
Amazon QAWS sin AI-kodeassistent som hjelper utviklere med å bygge programvare.

Kilder og ressurser

Del denne artikkelen