Hva skjer nå som AI er god i matte?

Dette er et AI-generert sammendrag. Kildevideoen kan inneholde demonstrasjoner, visuelt innhold og ytterligere kontekst.
Kort fortalt
Når sønnen sov om kveldene, satt Ernest Ryu med ChatGPT og jobbet på et problem ingen hadde klart å løse siden 1983. Tolv timer fordelt på tre kvelder, og han fikk beviset. I episode 17 av OpenAI Podcast sitter Ryu og kollega Sébastien Bubeck hos programleder Andrew Mayne og svarer på spørsmålet tittelen stiller: hva skjer egentlig nå som AI er god i matte?
Fra campingregning til IMO-gullmedalje
For to år siden testet Sébastien Bubeck ChatGPT med enkle oppgaver: tre venner drar på camping og betaler for ulike ting. Kan modellen fordele regningen jevnt over sytten poster? Nei. Finne et tidspunkt som passer på tvers av tre tidssoner? Det klarte den heller ikke.
For halvannet år siden deltok Bubeck i en debatt blant matematikere: ville det noen gang hjelpe å skalere opp store språkmodeller (LLM-er, altså AI-systemer trent på enorme mengder tekst) for å løse store, åpne matematiske problemer? Salen stemte. Åtti prosent sa nei. Åtte måneder senere produserte modellene matematikk på forskernivå.
Spranget kom ikke fra én ting. Bedre treningsteknikker, nye resonneringsmodeller og lengre, sammenhengende logikk-kjeder kom på plass omtrent samtidig. Resultatet: sommeren 2025 oppnådde ChatGPT gullmedalje-nivå i International Mathematical Olympiad (IMO), verdens mest prestisjefylte matematikkonkurranse for elever på videregående. Spørsmålet om AI kunne løse konkurransematematikk, var avgjort.
Men konkurranseoppgaver er ikke forskningsoppgaver. De har kjente svar. De er laget for å løses på noen timer. Ernest Ryu, den gang matematikkprofessor ved UCLA, ville finne ut hva som skjedde på den andre siden av denne grensen.
Det 42 år gamle problemet
Ryu valgte et problem som hadde stått åpent (det vil si ubesvart av noen i verden) siden 1983. Det handlet om Nesterovs akselererte gradientmetode, en grunnleggende algoritme innen optimaliseringsteori. Spørsmålet var: kan den i verste fall divergere, altså gi løpske resultater i stedet for å nærme seg et svar? Det meste tydet på at algoritmen var trygg. Ingen hadde bevist det.
Over tolv timer fordelt på tre kvelder satt ikke Ryu og ventet på at ChatGPT skulle løse problemet for ham. Han spilte rollen som kontrollør. Når modellen tok feil, rettet han den. Når samtalen sklei ut, styrte han den inn på spor han kjente igjen som lovende. Modellen utforsket. Han ledet. Etter 42 år viste svaret seg å være ja: algoritmen kan divergere. Ryu sjekket beviset for hånd og med ChatGPT. Det stemte.
Han la det ut på X, og folk merket seg det. Det var et av de første tilfellene der et reelt åpent problem ble løst med hjelp fra AI.
Ryu er nå forsker hos OpenAI. Slik vurderer han nivået i dag: alle fysikere, kjemikere og ingeniører som bruker avansert matematikk uten å lage ny matematikk selv, kan nå overlate mattejobben til ChatGPT. For 99 prosent av alle som møter vanskelig matematikk, er modellene allerede gode nok.
Erdős-testen: fra litteratursøk til ny matematikk
Paul Erdős var en av 1900-tallets mest produktive matematikere. Over 1500 artikler. Ingen fast adresse. Han reiste fra universitet til universitet og stilte spørsmål. De uløste problemene hans er samlet på en offentlig nettside: rundt tusen spørsmål, hvert merket som åpent eller løst.
Da OpenAIs modeller begynte å håndtere matematikk på forskernivå, ble Erdős-listen en naturlig test. Det første resultatet overrasket alle: GPT utførte et dypt litteratursøk, gikk gjennom tusenvis av artikler fra vidt ulike fagfelt, og fant et svar som lå begravd i et helt annet hjørne av matematikken. Problemet sto som åpent, men løsningen hadde ligget der, usynlig, i et fagfelt ingen ville ha kommet på å søke i.
Derfra gjennomførte OpenAI-forskeren Mark Selke en systematisk gjennomgang av alle problemene. Modellene leverte løsninger på ti Erdős-problemer. Bubeck skrev om det på X og startet en debatt om hvorvidt det egentlig dreide seg om reell oppdagelse, blant annet i en offentlig meningsutveksling med DeepMinds Demis Hassabis om hvordan resultatene burde beskrives.
Så kom svaret som avgjorde diskusjonen: OpenAI har nå over ti løsninger på Erdős-problemer som er helt nye, ikke funnet i litteraturen, ikke publisert noe sted tidligere. Resultater som kan trykkes i ledende tidsskrifter innen kombinatorikk, produsert av ChatGPT og interne modeller. Fra "funnet et sted" til "oppfunnet" tok det noen måneder.
Hvorfor matematikk er den perfekte AGI-målestokken
Matematikk ga AI mer enn en ny ferdighet. Det ga AI en disiplin. Bubeck forklarer kjerneegenskapen: for å løse et matematisk problem må du tenke lenge, kanskje i dager, uker eller år, og tankegangen må holde seg konsekvent hele veien. Én feil hvor som helst i kjeden ødelegger hele argumentet, uansett hvor riktig alt annet er. Ingen delvise poeng.
Dette er nøyaktig det OpenAI vil ha fra resonneringsmodeller: evnen til å fange opp og rette feil før de hoper seg opp. Håpet er at konsistensen fra matematikk smitter over på andre fagfelt, på samme måte som vi lærer barn matematikk selv om de aldri skal bruke det i jobben. Det trener en måte å tenke på.
Bubeck kaller dette "AGI-tid": hvor lenge kan en AI holde sammenhengende tanker, som om den var en menneskelig forsker? For to år siden matchet modellene en elev på videregående som tenker noen minutter. I dag kan de holde en forskers fokus i timer, kanskje noen dager. Målet er uker, deretter måneder. Kurven over fire år, fra sekunder til minutter til timer til dager, har vært jevn, og Bubeck ser ingen grunn til at fremgangen stopper.
Den automatiserte forskeren
Slik det fungerer nå, kaller Bubeck det professor-student-samspillet: mennesket stiller et problem, AI-en jobber med det, kommer tilbake, de snakker, AI-en prøver igjen. Slik fungerte Ryus tolv timer lange økt. Det er også grensen for hva som er mulig i dag.
Begrensningen er kontekstvinduet, som rommer rundt femti sider matematisk tenkning per økt. Mange banebrytende artikler er lengre enn det. Og tankearbeidet bak en artikkel på tretti sider er langt mer enn det den ferdige teksten viser.
Neste steg er den automatiserte forskeren: en modell som jobber selvstendig over lang tid, samler kunnskap slik en matematiker fyller notatbøker gjennom måneder, og produserer resultater som krever mer vedvarende innsats enn én økt gir rom for. Ryu peker på OpenAI Codex som den nærmeste parallellen i dag: Codex håndterer allerede store kodebaser over lange økter, komprimerer underveis og fortsetter. Den samme arkitekturen, brukt på matematikk, er der OpenAI jobber aktivt.
Ekspertise betyr mer, ikke mindre
Begge forskerne er tydelige på risikoen. Bubeck sier det rett ut: "Ekspertise er mer verdifull enn noen gang."
Grunnen til at Ryu kunne løse et 42 år gammelt problem på tolv timer, er tiår med opparbeidet matematisk intuisjon, ikke ChatGPTs. Han visste hvilke tilnærminger som var nye. Han fanget modellens feil fordi han forsto hvordan et korrekt argument måtte se ut. Uten den dybden ville de samme tolv timene ikke gitt noe nyttig.
Modellene bekrefter dette. Ikke-matematikere som har prøvd å bruke AI til å bevise teoremer, har levert lange, selvsikre bevis som rett og slett var gale. Verktøyet forsterker ekspertise. Uten ekspertise er det ingenting å forsterke.
Risikoen Bubeck peker på, er mental atrofi (at evnen svekkes når den ikke brukes): å la AI gjøre det vanskelige grunnlagsarbeidet før du har gjort det selv, å be ChatGPT forklare resultater i stedet for å sitte med dem i uker til du virkelig forstår dem. Den dype forståelsen som gjør AI-samarbeid fruktbart, tar mange år med hardt arbeid å bygge opp. Tar du snarveier, mister verktøyet det som gjør det kraftig i utgangspunktet. Vi trenger flere forskere, ikke færre. Og de må faktisk være gode.
Hva dette betyr
Har du holdt matematikk på avstand: nå er det bedre kår enn noen gang for å starte. ChatGPT kan forklare Maxwells ligninger, tilpasse seg akkurat der din forståelse slutter, og lage oppgaver som treffer presist der du trenger å øve. Veien inn har aldri vært kortere.
Er du allerede forsker eller ingeniør: AI kan nå ta seg av matematikken arbeidet ditt krever, uten at du må mestre den selv. En biolog kan kjøre kompleks optimalisering. En fysiker kan jobbe med avansert differensialgeometri. Terskelen mellom fagfelt er lavere enn noen gang.
Og er du matematiker: ifølge Bubeck er faget i ferd med å bli langt mer sammenhengende. Resultater begravd i obskure artikler vil dukke opp når en modell finner forbindelsen. Vanskeligere problemer, raskere tilbakemeldinger, og gleden over et løst problem presset inn i kortere tidsrom.
42 år med et åpent problem, løst over tre kvelder. Tidslinjene krymper.
Ordliste
| Begrep | Forklaring |
|---|---|
| Åpent problem | Et matematisk spørsmål ingen i verden ennå har klart å bevise eller motbevise |
| IMO | International Mathematical Olympiad: verdens mest prestisjefylte matematikkonkurranse for elever på videregående |
| AGI-tid | Hvor lenge en AI kan holde sammenhengende tankerekker, som om den var en menneskelig forsker som jobber over dager eller uker |
| Kontekstvindu | Mengden tekst en AI kan holde i minnet under én arbeidsøkt: rundt femti sider for matematikkoppgaver i dag |
| Erdős-tall | Antall ledd mellom deg og matematikeren Paul Erdős i en kjede av samforfattede artikler: Bubecks er to, Ryus er tre |
Kilder og ressurser
Vil du vite mer? Se hele videoen på YouTube →