Hopp til innhold
Tilbake til artikler

Isaacson: Altman-Musk-konflikten er personlig og reell

7. april 2026/5 min lesing/950 ord
OpenAISam AltmanElon MuskAI EthicsAnthropic
Walter Isaacson intervjues på CNBC om Altman-Musk-konflikten
Bilde: Skjermbilde fra YouTube.

Nøkkelinnsikt

  • Konflikten er både personlig og strukturell. Å avfeie den som ego overser de reelle politiske spørsmålene, og å behandle den som rent ideologisk overser hvordan personlig forræderi former beslutninger på toppen av AI-industrien.
  • AI-sikkerhet har et fangenes dilemma innebygd i seg. Ethvert selskap som bremser for sikkerhetens skyld risikerer å tape kontrakter til et selskap som ikke gjør det. Anthropic-Pentagon-episoden er det klareste eksemplet.
  • Verken selvregulering eller myndighetsregulering er tilstrekkelig, ifølge Isaacson. Det realistiske alternativet er rettssystemet, som først trer inn etter at skaden er skjedd.
  • OpenAIs nonprofit-opprinnelse er nå et juridisk ansvar. Overgangen til kommersielt selskap er ikke bare en filosofisk uenighet. Det er grunnlaget for Musks søksmål og kjernen i en stor journalistisk granskning.
Publisert 7. april 2026
CNBC Television
CNBC Television
Vertskap:Becky Quick
Tulane University
Gjest:Walter IsaacsonTulane University

Dette er et AI-generert sammendrag. Kildevideoen kan inneholde demonstrasjoner, visuelt innhold og ytterligere kontekst.

Se videoen · Slik genereres artiklene

Kort fortalt

Biograf og CNBC-bidragsyter Walter Isaacson gjestet Squawk Box for å kommentere den store New Yorker-profilen av Sam Altman, skrevet av Ronan Farrow og Andrew Marantz og publisert dagen før. New Yorker er et stort og anerkjent amerikansk magasin kjent for grundige reportasjer. Denne tok for seg Altmans midlertidige avsettelse som OpenAI-sjef i 2023 og hans forhold til nåværende og tidligere kolleger. Isaacson, som har skrevet biografien om Elon Musk, mener striden mellom de to mennene er dypt personlig og forankret i reelle uenigheter om AI-sikkerhet og selskapsstruktur. Han ga også en nøktern analyse av hvorfor sikkerhet er strukturelt vanskelig å håndheve i en konkurranseutsatt bransje, og hvorfor verken selvregulering eller offentlig tilsyn trolig vil løse det.

Ikke bare ego, ikke bare ideologi

Når store offentlige konflikter bryter ut i teknologibransjen, faller man lett for den enkleste forklaringen. Enten er det en personlig krangel mellom to sterke personligheter som krasjer, eller det er en prinsipielt fundert uenighet om hvordan teknologi bør utvikles og styres. Med Altman og Musk sier Isaacson at svaret er begge deler, og at det faktisk betyr noe.

Hans lesning av Farrow-artikkelen var at "dette er noe dypt personlig, men det har også en dypere substans i seg" — spørsmål om åpenhet, sikkerhetsbegrensninger og hvem som til syvende og sist skal kontrollere AI. Behandler man striden som en personlighetskollisjon, slipper de virkelige politiske spørsmålene unna. Men den personlige dimensjonen er reell: personlig forræderi former beslutninger på toppen av disse organisasjonene, og det påvirker hele bransjen.

Slik begynte det: et åpent, ideelt AI-laboratorium

Isaacson beskrev at han fulgte de tidlige møtene der Musk og Altman la grunnlaget for OpenAI. Den felles bekymringen var enkel: AI-utviklingen kom til å bli dominert av ett selskap, trolig Google. Svaret var en organisasjon som skulle være åpen kildekode (dele koden offentlig), ideell (ikke designet for å tjene penger til eierne) og ikke kontrollert av noen enkelt kommersiell interesse.

Så endret Altman strukturen. Da Isaacson fulgte Musks reaksjon, sa han: "Elon Musk, når han blir sint, kan han bli veldig sint." Han beskrev hvordan han så Musks ansikt forandre seg mens Musk snakket om å føle seg forrådt av Altman. I biografien kalte Isaacson dette "demon mode": det punktet der en klage slutter å være en uenighet og blir noe vanskeligere å beholde kontrollen over. Det er den forvandlingen som nå utfolder seg i rettssalene.

Overgangen til kommersielt selskap er ikke bare en filosofisk uenighet om hva OpenAI skal være. Det er det formelle juridiske grunnlaget for Musks søksmål. Den opprinnelige nonprofit-strukturen skapte forpliktelser, og de forpliktelsene forsvant ikke da strukturen ble endret.

Fangenes dilemma for AI-sikkerhet

Isaacsons skarpeste poeng handler ikke om de to mennene, det handler om bransjen som helhet.

Fangenes dilemma (prisoner's dilemma) er en situasjon der to parter begge ville tjent på å samarbeide, men der begge har et sterkt insentiv til å handle i egeninteresse i stedet, slik at begge taper. Isaacson argumenterer for at AI-sikkerhet har denne strukturen innebygd: «Any company that really pushes safety may fall behind», sa han. Ethvert selskap som virkelig prioriterer sikkerhet risikerer å falle bak. Pentagon-eksempelet viser hva som skjer i praksis.

Det klareste eksemplet som ble brukt i samtalen kom direkte fra Farrow-artikkelen. Anthropic bygde sikkerhetsbegrensninger inn i sitt AI-system (regler som hindrer modellen i å gi skadelige eller utilsiktede svar) før de lisensierte det til Pentagon. Pentagon ba om å få fjernet disse begrensningene. Anthropic sa nei.

Pentagon avsluttet samarbeidet. Umiddelbart stilte Sam Altman og OpenAI opp med sitt eget system, uten tilsvarende begrensninger. Isaacson argumenterer ikke for at Altman handlet galt, eller at Anthropic gjorde det. Poenget hans er at markedsstrukturen nærmest garanterer dette utfallet: hvis selskap A takker nei til en kontrakt av sikkerhetshensyn, tar selskap B den. Insentivet til å være selskap B er svært sterkt.

Dette er det som gjerne kalles allmenningens tragedie (tragedy of the commons): når enkeltaktører som handler i egeninteresse gradvis ødelegger noe som er til fellesnytte. Her er den felles ressursen et bransjefelles gulv for sikkerhetsstandarder, og konkurranse undergraver det systematisk.

Kan noen faktisk regulere dette?

Da Becky Quick spurte om bransjen kunne regulere seg selv, eller om myndighetene burde ta tak, ville Isaacson ikke velge mellom de to. Han avviste begge alternativer.

Svaret hans: "Bransjen kommer ikke til å klare å regulere seg selv... og [myndighetene] fungerer ikke godt heller." Med mange konkurrerende selskaper i kappløp vil noen ta snarveier uavhengig av hva bransjen er enig om i teorien. Politiske og regulatoriske tiltak er trege, ofte dårlig innrettet og utdatert av teknologien innen de trer i kraft.

Alternativet, antydet Isaacson, kan rett og slett være rettssystemet. Når noe går skikkelig galt, kommer søksmålene. Han pekte på Meta (selskapet bak Facebook og Instagram) som sammenligningsgrunnlag: ansvar og søksmål etter at skaden er oppstått. Det er ikke et tilfredsstillende svar, og han presenterte det heller ikke som det. Men det kan være den mest realistiske mekanismen som finnes, nettopp fordi den ikke krever at selskaper eller myndigheter blir enige om noe på forhånd.

Det ender i retten

Isaacson var direkte da Quick spurte om konflikten kunne løses utenfor rettssalen. Det vil den ikke. Uenighetene er for strukturelle, for innvevd i reelle juridiske krav og for personlige til den typen stille forlik som løser de fleste forretningstvister. Denne ender med en dommer.

Det Isaacson ikke svarte på er hva som skjer etterpå. Selv om Musk vinner i retten, løser ikke det fangenes dilemma. Det konkurransemessige presset mot å bytte bort sikkerhet for markedsandeler forsvinner ikke fordi ett søksmål avgjøres. Det er innebygget i måten disse selskapene konkurrerer på, og ingen rettsavgjørelse endrer det.

Ordliste

BegrepForklaring
Fangenes dilemma (prisoner's dilemma)En situasjon der to parter begge ville tjent på å samarbeide, men der begge har insentiv til å handle i egeninteresse i stedet, slik at begge taper
Allmenningens tragedie (tragedy of the commons)Når enkeltaktører som handler i egeninteresse gradvis ødelegger eller forringer en felles ressurs som gagner alle
Sikkerhetsbegrensninger (guardrails)Regler bygd inn i AI-systemer som hindrer modellen i å gi skadelige eller utilsiktede svar

Kilder og ressurser

Del denne artikkelen