Hassabis: AGI er 10x den industrielle revolusjonen

Nøkkelinnsikt
- Hassabis beskriver AGI som '10 ganger den industrielle revolusjonen, 10 ganger så raskt': en omveltning som kan skje på ett tiår i stedet for ett århundre. Det gir lite tid til å tilpasse utdanning, arbeidsliv og regelverk.
- Det som mangler er ikke størrelse, men egenskaper: kontinuerlig læring, konsistens og langsiktig planlegging. Større modeller alene vil ikke lukke gapet mot generell intelligens.
- Når dagens teknikker ikke gir mer, vinner de som klarer å finne opp nye. Forskjellen mellom de beste AI-laboratoriene og resten kan bli større fremover, ikke mindre.
- Hassabis vil at AI-designede legemidler over tid skal vise seg så pålitelige at myndighetene tillater å hoppe over steg som dyretesting. Når en nobelprisvinner sier dette, lytter folk.
Dette er et AI-generert sammendrag. Kildevideoen kan inneholde demonstrasjoner, visuelt innhold og ytterligere kontekst.
Kort fortalt
Demis Hassabis, sjef for Google DeepMind og nobelprisvinner i kjemi 2024, satte seg ned med 20VC-vert Harry Stebbings for en bred 32-minutters samtale om hvor AI står, hvor det er på vei, og hva som bekymrer ham mest. Hassabis ga en klar tidslinje: det er god sjanse for at AGI, kunstig generell intelligens, er her innen de neste 5 årene. Han beskriver det som "10 ganger den industrielle revolusjonen, 10 ganger så raskt" — større enn internett, mobil og alle tidligere teknologigjennombrudd til sammen. Han snakket også om legemiddeloppdagelse, sikkerhetsregulering, energi og de filosofiske spørsmålene han mener alle ignorerer.
Les også:
Et 5-årsvindu
Harry Stebbings åpnet med spørsmålet de fleste har: hvor nærme er vi AGI, kunstig generell intelligens (artificial general intelligence), en AI som kan gjøre enhver mental oppgave et menneske kan?
Hassabis svarte uten å nøle. "Det er veldig god sjanse for at det skjer innen de neste 5 årene." Han la til at dette ikke er noen stor revidering fra DeepMinds opprinnelige anslag. Da laboratoriet ble grunnlagt i 2010, publiserte medgründer Shane Legg blogginnlegg der han spådde AGI om omtrent 20 år. Den spådommen ser ut til å holde stikk.
Det gir perspektiv. Dette er ikke et anslag drevet av hype. Det er en 15 år gammel spådom som knapt er endret, og som nå nærmer seg målet.
Hva som faktisk mangler
Regnekraft (den råe prosessorkraften som trengs for å trene og kjøre AI) er fortsatt den største flaskehalsen, og ikke bare for å bygge større modeller. Hassabis pekte på at forskere trenger enorm regnekraft bare for å kjøre eksperimenter. "Skyen er arbeidsbenken vår," sa han. Har du en lovende ny idé, må du teste den i stor nok størrelse, ellers holder ikke resultatene når de skal brukes i virkeligheten.
Scaling laws er et mønster forskerne har sett: jo større du gjør en AI-modell, jo smartere blir den. Hassabis avviste påstanden om at vi har nådd en vegg. De enorme gevinstene fra tidlig skalering har bremset, men "gevinstene er fortsatt veldig betydelige." Spørsmålet er hva som kommer etterpå.
Og det mangler mye. Hassabis listet opp fire egenskaper dagens AI ennå ikke har:
- Kontinuerlig læring (continual learning). Dagens AI-systemer slutter å lære i det treningen er ferdig. De kan ikke ta inn ny informasjon slik vi gjør hver dag. Hjernen klarer dette elegant, trolig gjennom noe som skjer under søvn, der hjernen sorterer og lagrer det den lærte i løpet av dagen. AI-forskerne har ikke funnet det tilsvarende.
- Bedre minnearkitektur. Lange kontekstvinduer (mengden tekst en AI kan "holde i hodet" på en gang) er et nødtiltak, ikke en ekte løsning. Det trengs smartere arkitekturer.
- Langsiktig planlegging. Dagens systemer sliter med mål som strekker seg over måneder eller år.
- Konsistens. Hassabis kaller dagens AI-systemer "ujevne intelligenser." De kan være glimrende når et spørsmål er formulert på én måte, og mislykkes med den samme oppgaven hvis den er formulert litt annerledes. En ekte generell intelligens skal ikke fungere slik.
Kampen i front
På spørsmålet om AI-egenskaper er i ferd med å bli en handelsvare der alle modeller snart er omtrent like gode, var Hassabis uenig. Han mente at rundt 90 % av gjennombruddene bak dagens AI-industri kom fra Google Brain, Google Research eller DeepMind. Eksempler: AlphaGo, forsterkningslæring (en teknikk der AI lærer gjennom prøving og feiling, som et barn som lærer å sykle) og transformer-arkitekturen (grunnmuren som nesten alle moderne AI-modeller er bygget på). Alt kom fra Googles laboratorier.
Evnen til å oppfinne nye oppskrifter, ikke bare bygge større, blir det avgjørende. Argumentet hans er at når dagens idésett er brukt opp, vil laboratoriene som kan finne opp helt nye algoritmer (oppskrifter for hvordan AI-en tenker og lærer) dra i fra. Åpen kildekode-modeller (open source) henger om lag seks måneder bak de ledende laboratoriene, nok til at forskningsmiljøet kan forstå hva de har funnet ut. DeepMind har også sin egen åpne modellserie kalt Gemma, rettet mot utviklere, akademikere og tilfeller der det gir mening å kjøre en mindre, effektiv modell.
Hassabis tok også opp spørsmålet om store språkmodeller (LLMs, eller large language models, teknologien bak ChatGPT og Gemini) vil bli erstattet av noe annet. Han satte oddsen til omtrent 50/50 for at et nytt gjennombrudd utover LLM-er kan bli nødvendig. Men han tror ikke LLM-er vil bli kastet til side. Fremtidige AGI-systemer vil trolig bygge videre på dem, ikke erstatte dem.
Legemiddeloppdagelse og en ny vitenskapelig gullalder
En av Hassabis' tydeligste personlige drivkrefter er å bruke AI på vitenskap og medisin. AlphaFold løste et 50 år gammelt problem i biologi (å forutsi tredimensjonal struktur av proteiner) og fikk Nobelprisen i kjemi i 2024. DeepMind startet deretter et eget selskap kalt Isomorphic Labs for å jobbe med legemiddelutvikling.
Målet er å automatisere legemiddeldesign: finne ut hvilke kjemiske forbindelser som kan virke mot en sykdom, sjekke om de er giftige, og bekrefte at legemiddelet er trygt å bruke. Hassabis anslo at denne "legemiddeldesign-motoren" kan være klar innen 5 til 10 år.
Men det vanskeligste problemet er kliniske studier, som i dag tar mange år uansett hvor godt legemiddelet er. Hans langsiktige visjon er at nok AI-designede legemidler viser seg å fungere, slik at myndighetene tillater å hoppe over visse steg, inkludert dyretesting. Det er en prosess i to steg: først løse selve legemiddeldesignet, og deretter bygge nok tillit hos myndighetene til at de tør korte ned godkjenningen.
Han beskrev dette som begynnelsen på "en ny gullalder for vitenskapelig oppdagelse."
Sikkerhet og kravet om et internasjonalt organ
Hassabis siterte Stephen Hawking med fullt alvor: "Vi må gjøre dette riktig, vi får kanskje ikke en ny sjanse."
Han pekte på to separate risikoer. Den første er misbruk: dette er teknologi med dobbelt bruksområde. Den samme AI-en som akselererer medisin kan misbrukes av kriminelle aktører. Den andre er et teknisk problem: etter hvert som AI-systemer blir mer selvstendige og dyktige, kan de holdes innenfor de rammene mennesker setter? Denne bekymringen gjelder ikke for dagens systemer, sa han, men den vil gjelde innen ett til to år.
Hans foretrukne løsning, om han hadde en tryllestav: et internasjonalt regulatororgan modellert etter atomenergibyrået. Nasjonale AI-sikkerhetsinstitutter, som det Storbritannia opprettet under statsminister Rishi Sunak, ville rapportere til dette organet. Disse organene ville teste AI-systemer uavhengig, se etter farlige egenskaper som evnen til å lure, og gi ut et slags kvalitetsstempel. Selskaper og brukere kunne deretter trygt bygge på modeller som hadde bestått.
Han innrømmet at timingen er vanskelig: vi bygger trolig den viktigste teknologien i historien på nøyaktig det tidspunktet internasjonal koordinering er på sitt svakeste.
Jobber, energi og sammenligningen med den industrielle revolusjonen
På spørsmålet om AI vil ta jobber, tok Hassabis bekymringen på alvor, men satte den i et historisk perspektiv. Alle store teknologirevolusjoner har ødelagt gamle jobber og skapt nye, og han forventer det samme mønsteret her. Men han ser også en avgjørende forskjell i omfang. "Jeg beskriver noen ganger AGI som 10 ganger den industrielle revolusjonen, 10 ganger så raskt." Den industrielle revolusjonen tok over hundre år. AGIs tilsvarende omveltning kan skje på ett tiår.
Den industrielle revolusjonen var verdt å ha, sa han. Barnedødeligheten lå på rundt 40 % før den. Vi ville ikke valgt bort den. Men vi kunne håndtert bakdelene bedre. Hans håp er at vi denne gangen gjør det bedre, blant annet ved at pensjonsfond og statlige investeringsfond eier andeler i de store AI-selskapene, slik at gevinstene spres bredere.
Når det gjelder energi, kom han med et overraskende argument: AI vil til slutt betale for sine egne energikostnader mange ganger. Å optimalisere nasjonale strømnett alene kan gi 30 til 40 % effektivitetsgevinster. Legg til klimamodellering, materialvitenskap og potensialet for å gjøre fusjonsenergi mulig (fusjon er å slå sammen atomer for å lage energi, slik solen gjør det. DeepMind samarbeider med Commonwealth Fusion Systems om dette), og energibildet ser veldig annerledes ut i de neste 5 til 10 årene.
Hassabis avsluttet med en nøktern oppsummering: AI er både overhypet på kort sikt og dypt undervurdert på lang sikt. Det neste året vil trolig skuffe i forhold til forventningene. Det neste tiåret vil trolig overgå det de fleste forestiller seg.
Ordliste
| Begrep | Forklaring |
|---|---|
| AGI (kunstig generell intelligens, Artificial General Intelligence) | Et AI-system som kan utføre enhver kognitiv oppgave et menneske kan — ikke bare én bestemt ferdighet, men alle |
| Scaling laws | Mønster forskerne har observert: jo større AI-modellen (mer data, mer regnekraft), jo smartere — men med avtakende gevinster over tid |
| Kontinuerlig læring (continual learning) | Evnen til å fortsette å lære nye ting etter treningen er ferdig, slik vi mennesker tar inn ny informasjon hver dag |
| Grunnmodell (foundation model) | En stor AI-modell trent på enorme datamengder som fungerer som grunnlag for mange ulike bruksområder |
| Ujevn intelligens (jagged intelligence) | Når en AI gjør det strålende på en oppgave formulert på én måte, men feiler på den samme oppgaven formulert litt annerledes — et tegn på skjøre, ujevne evner |
| LLM (stor språkmodell, Large Language Model) | En type AI trent på enorme mengder tekst for å forstå og produsere språk — teknologien bak ChatGPT, Gemini og lignende systemer |
Kilder og ressurser
- 20VC with Harry Stebbings — Demis Hassabis: Why AGI is Bigger than the Industrial Revolution & Where Are The Bottlenecks in AI — Originalintervjuet, 7. april 2026
- Google DeepMind — Hassabis' forskningsorganisasjon
- Isomorphic Labs — DeepMind-spinout med fokus på AI-drevet legemiddeloppdagelse
- AlphaFold — System for prediksjon av proteinstruktur, Nobelprisen i kjemi 2024
- Commonwealth Fusion Systems — Fusjonsenergiselskap i samarbeid med DeepMind
Vil du vite mer? Se hele videoen på YouTube →