Altman advarer Washington: Superintelligens er på vei

Nøkkelinnsikt
- OpenAI posisjonerer seg som 'pedagog' overfor beslutningstakere. Selskapet som bygger teknologien er også den som setter rammene for politikkdiskusjonen, og den som definerer problemet former gjerne løsningen.
- Selv de mest markedsliberale republikanerne innrømmer privat at balansen mellom arbeidskraft og kapital vil bryte sammen hvis AI utvikler seg slik de forventer. Den politiske konsensussen kan skifte raskere enn den offentlige debatten tilsier.
- Altman kaller det en trist ting at myndighetene ikke kan lede AGI-utviklingen slik de ledet Apollo-programmet eller Manhattanprosjektet. En sjelden innrømmelse fra sjefen for verdens ledende AI-selskap.
- Altman omdefinerer AI-sikkerhet fra et selskapsansvar til en samfunnsmessig beredskapsutfordring, og utvider dermed hvem som må handle utover AI-industrien selv.
Dette er et AI-generert sammendrag. Kildevideoen kan inneholde demonstrasjoner, visuelt innhold og ytterligere kontekst.
Kort fortalt
Sam Altman møtte Axios-grunnlegger Mike Allen for å snakke om OpenAIs nye politiske veikart, "Industrial Policy for the Intelligence Age", og hvorfor han mener Washington ikke er forberedt på det som kommer. Altman advarer om at et verdensrystende cyberangrep er mulig allerede i år, at biorisikoen fra åpen kildekode-modeller ikke lenger er teoretisk, og at neste generasjon AI-modeller representerer et kvalitativt sprang som samfunnet ennå ikke har tatt inn over seg.
Les også:
Tidspresset
Altman innledet med å beskrive OpenAIs rolle som en slags speider som melder tilbake fra fronten. Han sa at teamet kjenner "et press på å handle" og ønsker å se debatten om disse spørsmålene "begynne for alvor." Veikartet er ikke ment som et ferdig politisk program. Målet er å få ideene inn i samtalen tidlig, på samme måte som OpenAIs tidligere spådommer om AI-evner, som en gang ble avfeid som urealistiske, til slutt viste seg å stemme.
Timingen er ikke tilfeldig, for AI er ikke lenger teori. Det gjør ekte arbeid, i stor skala, akkurat nå. Hva det vil si å være programvareutvikler ved inngangen til 2025, kontra ved inngangen til 2026, er ifølge Altman "veldig forskjellige ting."
Neste modeller: karrieredefinerende gjennombrudd
Da Allen ba Altman beskrive hva neste generasjon modeller faktisk vil klare, var Altman forsiktig med å love for mye, men tydelig på retningen. Dagens modeller, som GPT 5.4, hjelper allerede forskere med å gjøre mindre gjennombrudd. Med neste generasjons modeller forventer Altman at forskere vil begynne å si at "dette hjalp meg med å gjøre den viktigste oppdagelsen i mitt tiår, kanskje i hele karrieren min." Ikke en Nobelpris, men et betydelig, karrieredefinerende resultat.
På produktivitetssiden rapporterer kodere allerede at de er to til tre ganger mer effektive. Den neste terskelen er av en annen karakter: én person som gjør jobben til et helt programvareteam. "Meg og X hundre GPU-er (grafikkort som driver AI-beregninger), vi kan gjøre jobben til et helt programvareteam," sa Altman. Det er et kvalitativt skifte, ikke bare en fartsøkning.
Cyber og bio: truslene som ikke kan vente
Her ble tonen mer alvorlig. OpenAI følger trusler innenfor to hovedområder: cybersikkerhet og biologi.
På cybersiden var Altman direkte: et verdensrystende cyberangrep er "fullt mulig" i løpet av dette året. Å unngå det handler ikke om å gjøre én AI-modell tryggere isolert sett. Det krever en tilnærming der motstandsdyktighet kommer først, med cybersikkerhetsselskaper, myndigheter og plattformer som alle bruker AI til raskt å sikre systemene sine. OpenAI driver et eget "program for betrodd tilgang" (trusted access program) som gir forsvarsaktører tidlig tilgang til avanserte modeller nettopp for dette formålet.
På biologisiden er trusselen lenger unna, men beveger seg raskt. Avanserte AI-modeller vil snart kunne bistå med kompleks biologisk forskning på et høyt nivå. Det er i all hovedsak positivt, og Altman forventer at "en hel rekke sykdommer vil bli kurert." Men den samme evnen kan misbrukes. Risikoen for at terrorgrupper bruker åpen kildekode-modeller til å designe nye smittestoffer er, med Altmans egne ord, "ikke lenger noe teoretisk." Derfor presser OpenAIs veikart på for samfunnsmessig beredskap: sikkerhetstiltak på selskapsnivå vil ikke være nok.
Staten kan ikke lede dette. Men den må være en partner.
Allen spurte om argumentene mot å nasjonalisere OpenAI. Altmans svar var åpenhjertig: i en annen tid ville utvikling av AGI (kunstig generell intelligens) ha vært et statlig prosjekt, slik som Apollo-programmet, Manhattanprosjektet eller det amerikanske motorveinettet. Han kalte det "en trist ting", og erkjente deretter at statens nåværende struktur gjør det usannsynlig at det vil lykkes.
Alternativet er ikke uavhengighet, det er et dypt partnerskap. Altman var klar på at forholdet mellom AI-selskaper og myndigheter ikke kan holdes på armlengdes avstand. "Det må bli et veldig, veldig dypt partnerskap her." Han pekte på energiinfrastruktur, biosikkerhet og cybersikkerhet som de områdene der handling er mest presserende og mest politisk gjennomførbart.
Det som overrasket ham: selv de mest ideologisk markante, markedsliberale republikanerne innrømmer privat at hvis AI utvikler seg slik de forventer, vil den tradisjonelle balansen mellom arbeidskraft og kapital bryte sammen. En sentral republikansk politiker fortalte ham at han hater å gi oppmerksomhet til slike ideer, men vedgår at kapitalismen alltid har hvilt på en balanse mellom arbeid og kapital, og at den balansen kanskje må flyttes. Den typen private innrømmelser, bemerket Altman, er et tegn på at samfunnet er mer klart for denne samtalen enn den offentlige debatten tilsier.
Intelligens som en forsyningstjeneste
Til slutt spurte Allen om AI-prising. Altmans visjon er at intelligens blir noe som ligner på strøm. Du vil ha en personlig AI-assistent som kjører i skyen, gjør arbeid i bakgrunnen og kobler seg til ulike tjenester og enheter. Du betaler en månedlig regning basert på hvor mye du bruker. Prisen per enhet intelligens vil fortsette å falle, med mindre tilbudet ikke klarer å holde tritt med etterspørselen, og det er derfor Altman fortsetter å presse på for mer energi- og infrastrukturinvestering.
Ett forbehold: frontiermodellene blir ikke billigere. Folk vil alltid ha den største, smarteste modellen, og prisen for det vil forbli høy. Det som blir en vare, er gårsdagens intelligens. Å ligge i forkant koster alltid mer.
Ordliste
| Begrep | Forklaring |
|---|---|
| Superintelligens (superintelligence) | AI som overgår menneskelig evne på tvers av alle intellektuelle oppgaver. Steget videre fra AGI. |
| AGI (Artificial General Intelligence) | AI som kan utføre en hvilken som helst intellektuell oppgave et menneske kan. Altman sier vi er nær nok at den eksakte definisjonen på om vi allerede er der, betyr mye. |
| Frontiermodeller (frontier models) | De mest avanserte og kraftige AI-modellene tilgjengelig til enhver tid. |
| Program for betrodd tilgang (trusted access program) | OpenAIs program som gir cybersikkerhetsaktører tidlig tilgang til avanserte modeller, slik at de kan sikre systemer før angriperne gjør det. |
| Samfunnsmessig beredskap (societal resilience) | Altmans begrep for ideen om at AI-sikkerhet ikke kan håndteres av AI-selskaper alene. Myndigheter, infrastruktureiere og helsevesen må alle forberede seg. |
Kilder og ressurser
- Axios — OpenAI's warning: Washington isn't ready for what's coming (YouTube) — Fullt intervju med Sam Altman og Mike Allen
- OpenAI — Industrial Policy for the Intelligence Age — Veikartet som diskuteres i intervjuet
Vil du vite mer? Se hele videoen på YouTube →