Hopp til innhold
Tilbake til artikler

Slik bruker verdens beste matematiker AI

28. mars 2026/7 min lesing/1,389 ord
AI ResearchMachine LearningGenerative AIVibe Coding
Terence Tao i samtale med Dwarkesh Patel om matematikk og AI
Bilde: Skjermbilde fra YouTube.

Nøkkelinnsikt

  • AI har gjort det nesten gratis å komme opp med nye ideer, akkurat slik internett gjorde med kommunikasjon. Den nye flaskehalsen er ikke lenger å finne på teorier, men å sjekke og vurdere dem i stor skala.
  • 50 løste Erdős-problemer ser revolusjonerende ut, men systematiske studier viser 1-2% treffrate per problem. AI kjøper skala og bare vinnerne blir publisert. Det er en klassisk seleksjonsskjevhet i måten AI-gjennombrudd rapporteres på.
  • Tao forventer at samarbeid mellom mennesker og AI vil dominere matematikkens forskningsfront langt lenger enn mange tror, fordi AI ikke klarer å bygge videre steg for steg fra delvis fremgang.
KildeYouTube
Publisert 20. mars 2026
Dwarkesh Podcast
Dwarkesh Podcast
Vertskap:Dwarkesh Patel
UCLA
Gjest:Terence TaoUCLA

Dette er et AI-generert sammendrag. Kildevideoen kan inneholde demonstrasjoner, visuelt innhold og ytterligere kontekst.

Se videoen · Slik lages artiklene

Kort fortalt

Terence Tao, vinner av Fields-medaljen (matematikkens høyeste utmerkelse) og professor ved UCLA, bruker AI-verktøy daglig til litteratursøk, kodeformatering og tallarbeid. Men kjernearbeidet, det stedet der den egentlige matematikken skjer, er fortsatt blyant og papir. I en lang samtale med podkastskaperen Dwarkesh Patel fra Dwarkesh Podcast forklarer han hvorfor AI er mer som en springmaskin enn en klatrer, og hva som mangler før AI virkelig kan endre forskningen i forskningsfronten.

Kepler som en høytemperatur-språkmodell

Samtalen begynner med et overraskende spørsmål: var Johannes Kepler i virkeligheten en slags stor språkmodell (LLM, Large Language Model)?

Dwarkesh mener det. Kepler tilbrakte tjue år med å prøve tilfeldige sammenhenger mot den danske astronomen Tycho Brahes enestående planetdatasett. Han testet platonske legemer mot planetbanene, skrev om harmonier og musikknøter, og plukket tilsynelatende fritt fra astronomiens idébuffet. Akkurat slik som LLM-er, som genererer massivt med hypoteser mot treningsdataene sine.

«Kepler var en høytemperatur-LLM», sier Dwarkesh.

Tao er enig i at analogien er slående. Men han presiserer hva som reddet Kepler fra å bli glemt som en særling: verifisering. Brahe hadde brukt tiår på å samle presise observasjoner med det blotte øye, ti ganger mer nøyaktig enn noe tidligere datasett. Uten den presise dataen å sjekke mot, hadde Keplers idéer vært ren støy. Det var det faktum at én av de tilfeldige relasjonene faktisk holdt stikk, som forvandlet 20 år med håpløs spekulation til vitenskapelig gjennombrudd.

Poenget Tao trekker ut: idégenerering alene er ingenting uten et solid grunnlag å verifisere mot.

Ideer er nå nesten gratis

Tradisjonelt var det å komme opp med den rette hypotesen, eureka-øyeblikket, det som ga prestisje i vitenskapen. Kepler fikk æren. Brahe, som samlet dataen det hele hviler på, er en parentes.

Den logikken er i ferd med å snu seg.

«AI har drevet kostnaden for idégenerering ned mot null», sier Tao, «på samme måte som internett drev kommunikasjonskostnadene ned mot null.»

Det er en stor ting. Men det løser ikke problemet, det forskyver det. Nå kan tusenvis av teorier genereres for ethvert vitenskapelig spørsmål. Det nye problemet er å verifisere dem, sortere dem og avgjøre hvilke som faktisk fører vitenskapen fremover.

Vitenskapelige tidsskrifter rapporterer allerede at AI-genererte innsendinger oversvømmer dem. Fagfellevurderingen (den prosessen der andre forskere sjekker og godkjenner et arbeid før publisering) er ikke bygget for å håndtere dette volumet. Vi mangler systemer som kan vurdere vitenskapelig fremgang i stor skala, der vi i dag klarer det ett papir om gangen.

Erdős-tallene avslører seleksjonsskjevheten

Her er en nyhet som høres imponerende ut: AI-programmer har løst over 50 av de omtrent 1 100 Erdős-problemene. Erdős-problemer er en samling matematiske gåter stilt av den legendariske ungarske matematikeren Paul Erdős, som tilbød kontantpremier til den som klarte å løse dem.

50 problemer! Det høres ut som et gjennombrudd.

Men Tao bremser entusiasmen. Det har vært en periode der rent AI-genererte løsninger kom jevnt og trutt, og den perioden er nå over. Det er nå rundt 600 problemer igjen, og folk jobber sakte med ett eller to om gangen.

Mer avslørende er det som skjer når forskere gjør systematiske studier i stedet for å bare rapportere suksesshistoriene. Da ser tallene annerledes ut.

«På ethvert gitt problem har et AI-verktøy en suksessrate på kanskje 1 eller 2 prosent.»

Det er ikke imponerende. Men AI kjøper noe annet: skala. Du kan sette AI til å angripe alle 1 100 problemene samtidig. Med 1-2% treffrate over 1 100 problemer, løser du statistisk sett rundt 11-22 problemer. Så velger du vinnerne. Legger dem ut på sosiale medier. Og plutselig ser det revolusjonerende ut.

Det er seleksjonsskjevhet i praksis. Du ser bare vinnerne fordi taperne ikke blir publisert.

Bredde mot dybde

Tao bruker en treffende sammenligning for å forklare hva AI faktisk er god til i matematikk:

Tenk deg en fjellkjede i mørket, full av vegger i ulike høyder. Noen er bare en meter, noen er tre meter, noen er femten meter, og noen er som klipper du ikke kan se toppen av. Du prøver å klatre over så mange som mulig.

AI-verktøy er som hoppemaskiner som klarer å hoppe to meter høyt, høyere enn noe menneske. Iblant hopper de i feil retning og krasjer. Men iblant når de toppen av de laveste veggene, de veggene vi ikke klarte å komme over manuelt.

Problemet er at de enten lykkes eller feiler. De er svært dårlige på å skape delvis fremgang, på å finne mellomstasjoner eller bygge seg opp mot vanskelige problemer bit for bit. Det er det mennesker er gode til: å klatre litt, finne et fotfeste, trekke andre opp, og fortsette derfra.

Tao ser dette som et grunnleggende samspill der de to utfyller hverandre: AI utmerker seg på bredde (å prøve alle kjente teknikker på alle kjente problemer), mennesker utmerker seg på dybde (å bygge videre steg for steg der delvis fremgang teller). Nåværende vitenskap er strukturert rundt dybde, fordi det alltid har vært det mennesker gjør. Vi må legge om måten vi driver forskning på for å ta i bruk AI-ens breddekapasitet.

Hva Tao faktisk bruker AI til

«De har virkelig spart tid på mange sekundæroppgaver. De har ennå ikke spart tid på det kjernearbeidet jeg gjør.»

Det er en ærlig, direkte beskrivelse av hverdagen til verdens fremste matematiker med AI.

Hva er sekundæroppgavene? Litteratursøk. Generering av kode for å lage grafer og figurer. Numerisk beregning. Formatering. Tao nevner at han bruker en AI-agent til å fikse parentesstørrelser i LaTeX (det matematiske skriveverktøyet der du angir formatering som kode), noe han tidligere gjorde manuelt. Papirene hans inneholder nå langt mer kode og visualisering enn før, fordi det har blitt trivielt enkelt å produsere.

Hadde han skrevet papirene sine fra 2020 med AI-støtte i dag, ville de samme papirene tatt 5 ganger lengre tid uten AI. Men han ville ikke skrevet dem akkurat slik uten AI heller. De er rikere og bredere. Ikke nødvendigvis dypere.

Selve kjernen i arbeidet hans, det vanskeligste matematiske problemet i et prosjekt, håndteres fortsatt på samme måte som alltid: med blyant og papir.

Det som mangler: et halvformelt språk for strategier

En av de mer fremtidsrettede observasjonene i samtalen handler om hva som mangler i verktøykassen.

Vi har Lean, et programmeringsspråk der du kan skrive matematiske bevis som en datamaskin sjekker automatisk (formell verifisering). Det er fantastisk for å automatisere selve bevisene. Men bevis er sluttresultatet. Matematikere snakker om noe annet i arbeidsprosessen: strategier, gjetninger, tommelfingerregler, magefølelse.

Når to matematikere diskuterer et uløst problem, skjer det i et halvformelt språk som verken er matematisk presis kode eller vanlig språk. Det er noe midt imellom. Og det har vi ikke klart å formalisere ennå.

Tao ønsker seg noe i den retningen: en halvformell ramme der strategier kan uttrykkes, testes og graderes. Det ville gjøre det mulig å trene AI på det som egentlig er den vanskeligste delen av matematikk, å komme på riktig angrepsvinkel i utgangspunktet.

Per nå er dette et ønske snarere enn en plan. Men han påpeker at Lean-revolusjonen viser at formalisering kan ha enorm effekt. Kanskje samme ting kan gjøres for vitenskapelige strategier.

Hybrid fremtid, lenger enn ventet

Det siste store temaet i samtalen er tidslinja for AI i matematikk. Vil AI erstatte matematikere?

Svaret hans er at «hybrid menneske pluss AI vil dominere matematikk i mye lengre tid.»

Tao er ikke pessimistisk på AI sine vegne. Han mener tvert imot at det innen et tiår er mye av det matematikkstudenter gjør i dag, og mye av det som går inn i vanlige forskningsartikler, som kan gjøres av AI. Men det betyr ikke at matematikere blir overflødige. Det betyr at feltets tyngdepunkt forskyver seg mot det AI ikke kan gjøre.

Han sammenligner med hva som skjedde da kalkulatorer kom: matematikere som brukte tiår på å løse differensialligninger for hånd, ble ikke arbeidsledige. De gikk videre til andre typer problemer. Det samme skjedde da DNA-sekvensering ble billig, genomikk som fagfelt ble ikke borte. Det vokste.

Det manglende leddet er nettopp denne evnen til kumulativ fremgang. AI klarer ikke å bygge videre på delvis innsats. Starter du en ny sesjon, har den glemt alt. Det skjer ingen gradvis oppbygging av dyp innsikt fra den ene løsningssøkingen til den neste. Den dag AI mestrer det, endrer matematikken seg fundamentalt. Inntil da er samarbeid det eneste som gir dybde.


Ordliste

BegrepForklaring
Lean (bevisassistent)Et programmeringsspråk der du skriver matematiske bevis som en datamaskin sjekker automatisk.
Formell verifisering (formal verification)Å bruke dataprogrammer til å bevise matematisk at noe er korrekt, uten rom for feil.
Erdős-problemer (Erdős problems)En samling på over 1 100 uløste matematikkoppgaver stilt av den legendariske matematikeren Paul Erdős, som tilbød kontantpremier for løsninger.
Seleksjonsskjevhet (selection bias)Når du bare ser vinnerne, noe som gir et misvisende bilde av den faktiske suksessraten.
Forsterkende læring (reinforcement learning)En treningsmetode der AI belønnes for riktig atferd og straffes for feil, slik man trener en hund med godbiter.

Kilder og ressurser

Del denne artikkelen