Karpathy: Alt er en ferdighetssak med AI nå

Nøkkelinnsikt
- Karpathy gikk fra 80 prosent manuell koding til null på noen uker. Denne overgangshastigheten blant toppingeniører signaliserer hvor raskt resten av bransjen vil følge etter.
- Modeller er strålende på kode, men forteller den samme vitsen som for fire år siden. Forsterkende læring optimaliserer bare det som kan måles, og det skaper «øyer» av intelligens, ikke generell smarthet.
- Karpathy forklarer ikke lenger ting for mennesker, men for agenter. Lærerens jobb blir å bidra med de få innsiktene agentene ikke kan komme opp med selv.
- Når AI-verktøy gjør programvare billigere, kan etterspørselen etter programvare øke, ikke synke. Det samme skjedde da minibanker ble innført: antall bankansatte gikk opp, ikke ned.
Dette er et AI-generert sammendrag. Kildevideoen inneholder demonstrasjoner, visuelt innhold og kontekst som ikke dekkes her. Se videoen → · Slik lages artiklene →
Kort fortalt
Andrej Karpathy, tidligere AI-sjef hos Tesla og medgrunnlegger av OpenAI, forteller Sarah Guo på podkasten No Priors at han ikke har skrevet en eneste linje kode selv siden desember 2025. I stedet styrer han AI-agenter 16 timer om dagen. Han kaller dette «the loopy era» av AI, der målet er å fjerne deg selv som flaskehals og la agentene jobbe så lenge som mulig uten din hjelp. Samtalen dekker alt fra hvordan hverdagen til programmerere har endret seg fundamentalt, til hvorfor AI-modeller kan flytte fjell med kode men forteller elendige vitser, og hva dette betyr for jobber og utdanning.
Les også:
Fra koding til kommandoer
I desember 2025 snudde noe for Karpathy. Han gikk fra å skrive 80 prosent av koden selv til å skrive ingenting. Hele arbeidsdagen ble omstilt til å gi instruksjoner til AI-agenter, verktøy som Claude Code og Codex som skriver og kjører kode på dine vegne.
Han beskriver det som en ny type muskelhukommelse. I stedet for å tenke på enkeltlinjer med kode, tenker han i «makrohandlinger»: hele funksjonaliteter som delegeres til forskjellige agenter samtidig. Én agent forsker, en annen skriver kode, en tredje lager en plan for neste steg.
Karpathy trekker fram Peter Steinberger, skaperen av OpenClaw, som eksempel på hvordan dette ser ut i praksis. Steinberger ble kjent for et bilde der han sitter foran en skjerm full av parallelle Codex-agenter. Steinberger har ti kodebaser åpne samtidig og vandrer mellom dem for å gi nye oppgaver. Hver agent bruker omtrent 20 minutter per oppgave med høy innsats. Mens du venter på én agent, setter du den neste i gang.
«Alt føles som ferdighetsproblem når det ikke fungerer», sier Karpathy. «Skill issue» er et begrep fra spillverdenen: når noe feiler, er det spillerens evner det står på, ikke verktøyet. Karpathys poeng er at AI-agentene har blitt kraftige nok til at begrensningen nesten alltid er deg selv: instruksjonene du gir, hukommelsesverktøyene du setter opp, hvor flink du er til å dele opp arbeidet.
«Kloen» som aldri sover
Karpathy bruker begrepet «claw» (klo) om neste steg etter enkle kodeagenter. En klo er et autonomt system som jobber videre selv om du ikke er der. Den har sin egen sandkasse (isolert arbeidsmiljø), bedre hukommelse enn vanlige agenter, og den stopper ikke når oppgaven er gjort. Den finner neste oppgave selv.
Et konkret eksempel: Karpathy bygde en klo han kaller «Dobby» som styrer hele smarthuset hans. Dobby skannet nettverket, fant Sonos-høyttalerne og smartlysene uten passord, snakket med API-ene (koblingspunktene som lar programmer snakke med hverandre), og lagde et kontrollpanel. Tre meldinger i chat, og musikken spilte.
Dobby erstatter seks forskjellige apper. Den styrer lys, varme, persienner, basseng og overvåkingskameraer. Et Qwen-syn-modell (en AI-modell fra Alibaba som forstår bilder) analyserer kamerabildene og sender melding via WhatsApp: «En FedEx-bil stoppet utenfor. Du har kanskje post.»
Karpathy mener dette peker mot en fremtid der mange apper ikke trenger å eksistere. Programvare bør være API-er som agenter kaller på direkte, ikke ferdiglagde grensesnitt for mennesker.
Personlighet spiller også en rolle. Karpathy trekker frem at Claude Code føles som en lagkamerat som er genuint interessert i prosjektet ditt, mens Codex er mer tørr. OpenClaw har en gjennomtenkt «sjel»-fil som gir agenten karakter. Når du jobber med en agent 16 timer om dagen, merker du forskjellen.
SOUL.md er OpenClaws personlighetsfil. Den beskriver hvordan agenten skal oppføre seg, hvilken tone den skal ha, og hva den bryr seg om. Tenk på det som en rollebeskrivelse som gjør agenten til en kollega i stedet for et verktøy.
Les SOUL.md-malen i OpenClaw-dokumentasjonen.
Briljant og dum på samme tid
«Jeg føler at jeg snakker med en ekstremt briljant doktorgradsstudent og en tiåring samtidig», sier Karpathy. Denne ujevnheten (jaggedness) er et sentralt tema i samtalen.
Modellene kan bygge komplekse systemer over timer uten å stoppe, men spør du om en vits, får du den samme som for fire år siden. «Hvorfor stoler ikke forskere på atomer? Fordi de utgjør alt.» Det er vitsen du fikk i 2022, og det er vitsen du fortsatt får.
Årsaken ligger i hvordan modellene trenes. Forsterkende læring (reinforcement learning, en teknikk der modellen forbedres ved å prøve ting og få belønning for riktige svar) fungerer strålende for alt som kan måles: bestod koden testen? Ja eller nei? Men humor, nyanse og evnen til å forstå hva du egentlig mente med en uklar forespørsel, det kan ikke måles like lett, og derfor blir det ikke bedre.
Karpathy beskriver det som å være på sporet eller av sporet. Innenfor det modellen er trent på, beveger den seg i lysets hastighet. Utenfor famler den uten retning.
Spesialisering fremfor én modell for alt
I dag satser AI-laboratoriene på å lage én universell modell som skal kunne alt. Karpathy mener vi burde se mer spesialisering i stedet, det han kaller «modellspesialisering». Tenk på dyrelivet: ulike arter har utviklet ulike hjerner for ulike nisjer. En modell som bare kan matematikk, vil være raskere og billigere enn en som prøver å kunne alt.
Åpen kildekode-modeller (open source) ligger i dag omtrent 6-8 måneder bak de lukkede modellene fra laboratoriene. Karpathy mener dette er et sunt balansepunkt: laboratoriene presser grensene mens åpen kildekode gjør kraftig teknologi tilgjengelig for alle. Han sammenligner det med Linux, som er åpent og kjører på over 60 prosent av verdens datamaskiner, selv om Windows og macOS finnes som lukkede alternativer.
Jobber og Jevons' paradoks
Karpathy analyserte nylig arbeidsmarkedsdata fra det amerikanske Bureau of Labor Statistics og sorterte yrkene etter hvor digitale de er. Hans observasjon: jobber som handler om å behandle digital informasjon, ting du kan gjøre fra sofaen, vil endres raskest. Fysiske jobber vil bli påvirket senere fordi det å flytte atomer er mye vanskeligere enn å flytte bits.
Men «endres» betyr ikke nødvendigvis «forsvinner». Her trekker Karpathy inn Jevons' paradoks: når noe blir billigere, øker etterspørselen så mye at totalforbruket faktisk går opp. Det klassiske eksempelet er minibanker. Folk fryktet at bankansatte ville miste jobben, men fordi minibanker gjorde det billigere å drive en filial, ble det flere filialer og dermed flere bankansatte.
Karpathy er forsiktig optimistisk om programvareutvikling. Programvare har alltid vært for dyrt, mener han. Når AI gjør det billigere, kan etterspørselen eksplodere fordi selskaper plutselig har råd til programvare de aldri ville ha bestilt til dagens priser.
Samtidig innrømmer han det paradoksale: forskerne hos AI-laboratoriene bygger i praksis automatisering som gjør deres egne jobber overflødige. «Jeg gikk rundt hos OpenAI og sa: dere skjønner at hvis vi lykkes, er vi alle uten jobb?»
Utdanning: Forklar det til agenten, ikke til mennesket
Karpathy har et prosjekt kalt microgpt: hele prosessen med å trene en AI-modell, kokt ned til 200 linjer Python. Vanligvis ville han ha laget en video som forklarer koden steg for steg. Men denne gangen fant han det meningsløst.
«Jeg forklarer ikke ting for mennesker lenger. Jeg forklarer det til agenter», sier han. Hvis en agent forstår koden, kan den forklare den til hvem som helst, på deres språk, med uendelig tålmodighet, tilpasset deres nivå. En video gir deg én forklaring. En agent gir deg ti forskjellige.
Han ser for seg et nytt utdanningsformat der lærere lager «ferdigheter» (skills), instruksjoner til agenten om hvordan den bør lede en elev gjennom et tema. I stedet for å holde forelesninger, skripter du pensum som et sett med hint agenten følger.
«Jobben din er det agentene ikke klarer ennå», oppsummerer Karpathy. For microgpt var hans bidrag den kreative innsikten: å koke ned to tiårs erfaring til 200 linjer. Det kunne ikke agenten gjøre. Men å forklare koden til andre, tilpasse den til ulike nivåer, oversette den? Det gjør agenten allerede bedre enn ham.
Løkke-æraen er her
Gjennom hele samtalen kommer Karpathy tilbake til det samme poenget: den viktigste ferdigheten nå er å fjerne deg selv som flaskehals. Ikke sitte og vente på at agenten blir ferdig, men sette opp systemer som kjører uten deg. Maksimer token-gjennomstrømningen din, mengden AI-arbeid du får gjort per tidsenhet, og la løkkene gå.
Han sammenligner det med angsten han hadde over ubrukte GPU-er (grafikkprosessorer) han hadde som doktorgradsstudent: å føle seg nervøs når maskinene ikke jobbet for fullt. Nå er det det samme med agenter. Har du abonnement igjen på slutten av dagen, har du ikke utnyttet kapasiteten.
Det er dette han kaller «løkke-æraen» (the loopy era). Ikke bare én agent som svarer på spørsmålene dine, men svermere av agenter som forsker, koder, optimaliserer og rapporterer tilbake. Menneskets rolle endres fra å gjøre arbeidet til å sette arbeidet i gang.
Ordliste
| Begrep | Forklaring |
|---|---|
| Kodeagent | AI-verktøy som skriver og kjører kode på dine vegne, som Claude Code eller Codex |
| Klo (claw) | Karpathys begrep for et autonomt agentsystem som jobber vedvarende uten at du er involvert |
| Forsterkende læring (RL) | Treningsteknikk der AI-modellen forbedres ved å prøve ting og få belønning for riktige svar |
| Ujevnhet (jaggedness) | Modellers ujevne ferdighetsprofil: strålende på noen oppgaver, svak på andre |
| Jevons' paradoks | Når noe blir billigere, øker etterspørselen så mye at totalforbruket går opp |
| Token-gjennomstrømning | Mengden AI-prosessering du får utført per tidsenhet |
Kilder og ressurser
Vil du vite mer? Se hele videoen på YouTube →