Altman: Samfunnet har ikke forstått hva som kommer

Nøkkelinnsikt
- OpenAI rammer inn superintelligens (AI som overgår mennesker på alle områder) som et politisk problem, ikke bare et teknisk. Debatten flyttes fra 'vil det fungere?' til 'hvem tjener på det og hvordan forbereder vi oss?'
- I stedet for å gi folk penger når AI tar jobbene deres, vil OpenAI gi folk tilgang til AI selv. Det handler om handlekraft, ikke avhengighet.
- COVID-analogien er et bevisst grep. Altman sier: vi så dette komme, vi handlet for sent, la oss ikke gjøre den feilen igjen.
- Mars 2028 er det offisielle målet for en AI som kan drive AI-forskning selv. Hvis det lykkes, vil fremgangen forsterke seg selv, og samfunnet har omtrent to år på å forberede seg.
Dette er et AI-generert sammendrag. Kildevideoen kan inneholde demonstrasjoner, visuelt innhold og ytterligere kontekst.
Kort fortalt
Samme morgen som OpenAI publiserte rapporten "Industrial Policy for the Intelligence Age", satte administrerende direktør Sam Altman seg ned med Josh Achiam, Chief Futurist i OpenAI, og forsker Adrien Ecoffet til en offentlig samtale ledet av Chris Nicholson fra OpenAIs politikk- og samfunnsteam. 46 minutter om farten i AI-utviklingen, hvem som får tilgang, hvordan vi håndterer at AI endrer arbeidsmarkedet, og hvorfor samfunnet bør debattere dette nå.
Les også:
"Endringen har allerede skjedd"
Altman åpnet med en historie. Sent i januar 2020, lenge før de fleste hadde hørt om COVID-19, hadde OpenAI-forskerne allerede konkludert med at pandemien var på vei. De la planer for hjemmekontor, satte kobber på dørhåndtakene og ble hånet av journalister. Én natt gikk Altman alene gjennom San Francisco og så folk i restauranter og barer puste i ansiktet på hverandre, mens han selv gikk med munnbind. «Jeg har ikke kjent på den følelsen så sterkt som jeg gjør igjen akkurat nå», fortalte han forumet. «Det skjer en voldsom endring. Endringen har allerede skjedd — modellene har allerede nådd et visst nivå. Samfunnet har bare ikke tatt det inn over seg ennå.»
Analogien er bevisst valgt. Altman spår ikke dommedag. Han sier at de som er nærmest dataene kan se hva som kommer lenge før det blir åpenbart for resten. Og når det blir åpenbart, er det for sent å forberede seg. Rapporten og forumet er OpenAIs forsøk på å starte debatten tidlig.
Ecoffet gjorde det personlig. I månedene rapporten ble skrevet, gikk mange OpenAI-forskere gjennom et skifte: fra å skrive mesteparten av koden selv til å la AI skrive mesteparten av den. Å se det skje inne i organisasjonen skjerpet følelsen av at det som kommer er reelt og raskt, på måter de fleste utenfor ikke har sett ennå.
Motstandsdyktighet er ikke én bedrifts ansvar
Det skarpeste spørsmålet i samtalen var hva "sikkerhet" faktisk betyr i stor skala. Ecoffet trakk et skille mellom klassisk AI-sikkerhet, det å justere en modell, kjøre sikkerhetstester og innføre tiltak, og motstandsdyktighet i samfunnet som helhet: hva skjer når noen aktører gjør mindre sikkerhetstesting, eller når hendelser oppstår uansett?
Rapporten foreslår en modell for hendelsesrapportering inspirert av luftfarten: alle nestenulykker og uventede hendelser logges i en felles database, slik at hele bransjen kan lære av dem. Men Altman gikk lenger. Svært avanserte AI-modeller vil kunne finne sårbarheter i programvaresystemer bedre enn noe menneske. Selv om alle store AI-selskaper ble enige om å hindre at modellene brukes til nettangrep, kommer åpne AI-modeller (modeller som hvem som helst kan laste ned og bruke) med de samme evnene, og ingen politikk kan stanse det. Det eneste reelle svaret er å bruke AI til å forsvare programvaresystemer med samme hastighet som angripere bruker det til å sondere dem.
Den samme logikken gjelder biologisk risiko. Noen vil på et tidspunkt bruke en modell til hjelp med å utvikle et patogen. Å begrense de mest avanserte modellene fra å gi slik informasjon kjøper tid, sa Altman, men verden trenger faktiske forsvarsskjold: deteksjonssystemer, raske behandlingstiltak og, som Achiam understreket, bedre beskyttelse av matforsyningen, en undervurdert sårbarhet som AI kan hjelpe til med å tette.
Innrammingen er viktig. OpenAI sier ikke «stol på oss, vi ordner det». De sier at motstandsdyktighet vokser frem gjennom brede samfunnstiltak, og at OpenAI kan hjelpe til med å bygge noen av forsvarsverktøyene, men ikke alle.
Hvem eier datakraften?
Det andre store temaet var tilgang. Altman var direkte: den eneste måten å gjøre AI tilgjengelig for alle er å bygge så mange datasentre at prisen på AI-tjenester fortsetter å falle. «The demand is uncapped», sa han. Holder tilbudet seg begrenset, vil de rikeste menneskene og selskapene ganske enkelt by prisen opp til datakraft (regnekraften som trengs for å kjøre AI) blir enda en form for konsentrert makt. Flere datasentre er, litt paradoksalt, et likestillingstiltak.
Den historiske analogien hans var elektrisitet. Å drive ned energiprisen over de siste 200 årene er noe av det beste menneskeheten har gjort for levestandarden globalt. AI-tilgang trenger samme behandling: ikke en knapp ressurs rasjonert etter hvem som har råd til den, men et fellesgode tilgjengelig for alle med en idé.
Det kobler til det rapporten kaller universal basic compute: i stedet for å gi folk månedlige utbetalinger når AI tar jobbene deres, gi folk tilgang til AI selv. Altmans argument er at folk flest vet hva de trenger. Problemet er å bli stengt ute fra ressursen i utgangspunktet.
Achiam la til en forsiktig merknad: inntil datakraft er virkelig rikelig vil spørsmålet om hvem som får bruke den til hva bli et av de viktigste samfunnsspørsmålene vi må håndtere. Smertefulle avveininger kommer, med mindre tilbudet økes raskt.
Å bygge om økonomien
Samtalen var uvanlig konkret om økonomisk politikk. Altman sa at dagens skattesystem, bygget rundt skatt på menneskelig arbeid, må endres i en verden der AI gjør mesteparten av det intellektuelle arbeidet. Å legge skatt på AI-arbeid i stedet for menneskelig inntekt er én mulighet han pekte på. Han nevnte også nye former for omstillingsstøtte, at goder som helseforsikring og pensjon bør følge arbeidstakeren i stedet for å være bundet til én arbeidsgiver (han kalte den nåværende amerikanske strukturen «really bad»), og behovet for at folk til slutt får eierandeler i verdiskapingen fra AI-økonomien.
Ecoffet tok opp tiltak som bare slår inn når krisen treffer: økonomiske virkemidler som bare aktiveres når forstyrrelse fra AI faktisk inntreffer, heller enn å bygge dem inn i systemet betingelsesløst. En 32-timers arbeidsuke gir for eksempel mening i en verden der AI fortrenger arbeidskraft, men å innføre den for tidlig kan skape egne problemer. Målet er å ha tiltakene klare og kalibrerte til å utløses ved behov.
Achiam pekte på et annet gap: vi trenger noe mellom en bedrift og en regjering. Private selskaper har minimal styringsansvar; regjeringer beveger seg sakte. Nye organisasjoner med ansvar et sted mellom bedrift og stat kan kanskje teste ut velferdstjenester og demokratiske løsninger raskere enn begge.
Troen henger etter
Den siste delen dreide seg om et fenomen alle som følger AI-adopsjon har lagt merke til: de fleste undervurderer kraftig hva dagens modeller allerede kan. Achiam beskrev tidsforskjellen presist. AI-fremgang skjer i uker og måneder. De fleste som ikke er nær feltet sjekker inn omtrent hvert halve år. De tenker fortsatt på standard chat-modellen, ikke resonneringsmodellene (AI-systemer som tenker steg for steg før de svarer) som har kommet siden. De hører om hallusinasjoner og konkluderer med at teknologien ikke er klar. Troen vil ta igjen virkeligheten, argumenterte han, når folk begynner å se andre mennesker og institusjoner lykkes tydelig med AI på fullt ytelsesnivå.
Altmans favoritteksempel var foreldre som selv er programvareutviklere, og som ser barna sine bruke OpenAI Codex for første gang. Et barn uten anelse om hva som skal være vanskelig begynner bare å beskrive et videospill og bygger det med stemmen. Den voksne tenker: «Det kommer ikke til å fungere.» Og så fungerer det. De ville aldri prøvd selv, fordi erfaringen deres sa at det var umulig.
Det gapet, mellom hva barn antar er mulig og hva trente voksne antar er umulig, er i miniatyr gapet mellom der AI er i dag og der samfunnets bilde av AI befinner seg.
2028-vinduet
Det mest konkrete tallet i samtalen kom fra Ecoffet: mars 2028 er det offisielle målet for en automatisert AI-forsker: en AI som kan gjøre jobben til en AI-forsker. Dette handler ikke bare om å la AI overta vanlige oppgaver. En AI som kan drive AI-forskning kan akselerere utviklingen av AI selv og forsterke fremgangen på måter som er vanskelige å forutsi. Ecoffet var nøye med å understreke usikkerheten, men betydningen var klar: vinduet for institusjoner til å tilpasse seg måles i omtrent to år, ikke tiår.
Forumet er innrammet som begynnelsen på en samtale, ikke et ferdig politisk dokument. OpenAI inviterer til tilbakemeldinger via en ny e-postadresse og lanserer et prøveprosjekt med forskerstipender for uavhengige forskere (opptil 100 000 dollar i finansiering og opptil 1 million dollar i API-kreditter (forhåndsbetalt tilgang til OpenAIs AI-tjenester)) for å stimulere uavhengig forskning rundt spørsmålene som reises. Ytterligere diskusjoner skal holdes på et nytt OpenAI-verksted som åpner i Washington DC i mai.
Budskapet under det hele er COVID-turen. Forskerne som forsto eksponentiell vekst, så det komme lenge før de fleste. De ble hånet. De forberedte seg likevel. Denne gangen forsøker OpenAI å ta alle med på turen før nedstengningene begynner.
Ordliste
| Begrep | Forklaring |
|---|---|
| Superintelligens (superintelligence) | AI som overgår menneskelig kognitiv evne på alle områder, ikke bare i snevre oppgaver |
| Universal basic compute | Ideen om å gi alle tilgang til AI-datakraft som en grunnleggende ressurs, i stedet for kontantstøtte, slik at folk kan bruke AI til å bygge ting selv |
| Evneoverheng (capability overhang) | Gapet mellom hva AI kan gjøre i dag og hva folk flest tror det kan gjøre. Mange sjekker inn sjelden og har et utdatert bilde av teknologien |
| Datakraft (compute) | Regnekraften som trengs for å trene og kjøre AI-modeller. Måles i prosessorkraft og tilgang til kraftige datasentre |
| Motstandsdyktighet (resilience) | Samfunnets evne til å tåle og hente seg inn etter store forstyrrelser, gjennom flere lag med forsvar i stedet for å stole på én enkelt sikring |
Kilder og ressurser
- Sam Altman on Building the Future of AI (YouTube) — 46-minutters OpenAI Forum-paneldiskusjon med Sam Altman, Josh Achiam og Adrien Ecoffet
- OpenAI Codex — Kodingsverktøyet referert til i anekdoten om barn som bygger videospill
- OpenAI — Utgiver av rapporten "Industrial Policy for the Intelligence Age" diskutert i forumet
Vil du vite mer? Se hele videoen på YouTube →