Ny dokumentar sier vi må velge vår AI-fremtid nå

Nøkkelinnsikt
- Harris flytter debatten fra «optimist eller pessimist» til «velger vi aktivt å styre AI?». Det skiftet gjør at folk kan handle, i stedet for å sitte og vente.
- «Den menneskelige bevegelsen» Harris beskriver finnes allerede i fragmenter: søksmål, boikott, mobilfrie skoler. Den har bare ikke sett seg selv som én bevegelse ennå.
- Folk inne i AI-bransjen tror at AI som forbedrer sin egen kode uten menneskelig hjelp kan være 1–2 år unna. Ingen regler finnes for å håndtere det i dag.
Dette er et AI-generert sammendrag. Kildevideoen kan inneholde demonstrasjoner, visuelt innhold og ytterligere kontekst.
Kort fortalt
Tristan Harris, medgrunnlegger av Center for Humane Technology, var gjest hos NBC News for å snakke om dokumentaren The AI Doc: Or How I Became an Apocaloptimist. Filmen, regissert av Daniel Roher (som også regisserte den Oscar-vinnende dokumentaren Navalny), ble vist på Sundance i januar 2026 og hadde kinopremiere 27. mars. Den følger en dokumentarfilmskaper som snart skal bli far, og som drar ut for å snakke med AI-ledere for å forstå hvilken verden barnet hans arver. Harris var en av dem han intervjuet, og i samtalen med NBC-anker Gadi Schwartz redegjorde han for filmens sentrale budskap: vi befinner oss i et veiskille der vi enten aktivt velger hvilken AI-fremtid vi vil ha, eller lar ting skje med oss.
Les også:
Apokaloptimist: hva betyr det egentlig?
Dokumentarens undertittel, Or How I Became an Apocaloptimist (apokaloptimist), er et nøkkelord. Det beskriver noen som ser begge sider klart: de katastrofale risikoene og de enorme mulighetene ved AI, uten å velge en av dem. Hverken den naive optimisten som mener alt ordner seg, eller pessimisten som bare ser undergang.
Harris sier det handler om noe mer grunnleggende enn å bestemme seg for å se lyst på ting. Det handler om valg og handlekraft.
«Standardveien vi er på med AI er svært farlig.» Ikke fordi teknologien i seg selv er ond, men fordi kursretningen ikke er valgt av noen. Den er satt av selskapenes egeninteresser, ikke av demokratiske beslutninger.
Valg, ikke optimisme
Det viktigste Harris sier i intervjuet er et viktig skille. Schwartz spør om Harris deler optimismen etter alt han har sett. Svaret er avslørende:
«Jeg tenker på det som handlekraft. (...) Jeg vektlegger valg fremfor optimisme eller pessimisme.»
Det er en gjennomtenkt omformulering. Optimisme er en følelse. Valg er en handling. Harris mener debatten mellom AI-optimister og AI-pessimister er en felle, fordi begge sidene sitter stille og venter på at fremtiden skal vise hvem som fikk rett. Det han vil ha er noe annet: at vi som samfunn innser at vi kan styre. Ikke nødvendigvis stoppe, men velge retning.
Filmens formål er å gi folk klarhet nok til å gjøre det valget. Den samler optimister, pessimister og teknologisjefene selv i samme rom og tvinger alle til å svare på de samme spørsmålene.
Den menneskelige bevegelsen finnes allerede
På spørsmål om hva «handlekraft» faktisk betyr i praksis, presenterer Harris ideen om The Human Movement — en organisert innsats for å bygge en pro-menneskelig fremtid med AI.
Det interessante er at Harris mener bevegelsen allerede er i gang. Den har bare ikke anerkjent seg selv som en bevegelse ennå.
Han trekker frem konkrete eksempler fra de siste ukene og månedene:
- Meta-søksmålet for 375 millioner dollar: Et søksmål mot Meta for bevisst å ha rettet avhengighetsskapende produkter mot barn.
- Senatet blokkerte føderal forrang (føderal forrang betyr at den føderale regjeringen tar enerett på å regulere noe, slik at delstatene ikke får lage egne regler): Forsøket på å hindre stater i å regulere AI ble avvist.
- Mobilfrie skoler: Foreldre som organiserer seg og presser gjennom mobilforbud i skoletiden.
- Anthropic/Pentagon-boikotten: Da ett selskap sa ja til masseovervåking og Anthropic sa nei, steg Anthropics abonnementstall dramatisk mens det andre falt.
«Det er uttrykk for den menneskelige bevegelsen. Vi vil bygge en pro-menneskelig fremtid, ikke en som fratar oss frihet, privatliv og barnas mentale helse.»
Truslene Harris beskriver
Hva er det egentlig vi skal styre bort fra? Harris og Schwartz er innom tre trusler som allerede tar form.
Massearbeidsledighet
«Massearbeidsledighet der 100 millioner mennesker ikke har en jobb» og ingen virkelig mulighet til å omskolere seg. Spørsmålet Harris stiller er enkelt: hvem klarer å lære seg noe nytt raskere, mennesker eller AI? Svaret er åpenbart, og det gjør tradisjonell omskolering til en svak løsning.
Autonome våpen i Ukraina
Schwartz beskriver en realitet fra krigen i Ukraina: droner som, for å unngå elektronisk blokkering (jamming), gis tillatelse til å velge mål på egen hånd via AI. «Vi bygger Terminator-fremtiden med autonome våpen», sier Harris. Det han advarer mot er en fremtid der krig ikke lenger handler om menneskelig mot og viljestyrke, men om maskiner som dreper i stor skala uten menneskelig kontroll.
Institusjonene henger etter
Biologen E.O. Wilson beskrev menneskenes grunnleggende problem slik: «Vi har hjerner fra steinalderen, middelalderinstitusjoner og gudelignende teknologi.» Harris bruker sitatet for å beskrive dagens situasjon: vi har en ukontrollert teknologiutvikling og et politisk system fra 1700-tallet. Det er ikke AI som er fienden. Det er farten uten styring.
Den sorte linjen: rekursiv selvforbedring
Mot slutten av intervjuet kommer det mest alvorlige punktet.
Schwartz spør om tidslinje. Har vi måneder eller år? Harris svarer med å beskrive det bransjen frykter mest av alt: rekursiv selvforbedring. Det er når et AI-system begynner å forbedre sin egen kode og sine egne evner uten at mennesker er involvert. Systemet kjører eksperimenter, analyserer resultatene og oppdaterer seg selv, om og om igjen, i en stadig raskere sløyfe.
Harris sammenligner det med å krysse hendelseshorisonten i et svart hull: du vet ikke hva som kommer ut på den andre siden, fordi det som er inne er i ferd med å bli noe ingen forstår.
«Det er ikke bare en rød linje. Det er en svart linje.»
Ifølge Harris mener folk i bransjen at dette kan skje «et sted mellom 1 og 2 år fra nå, om ikke tidligere.» Det farlige er at de som bygger dette, kappes om å komme dit først. Og de regner med at publikum ikke følger med.
Ikke anti-teknologi, men pro-brems
Harris understreker gjentatte ganger at verken han eller filmen er mot teknologi. «Dette handler ikke om å være mot teknologi. Det handler om å ville styre, og om å tørre å bremse.»
Analogien er enkel: en bil uten bremser er ikke mer frihet, det er bare større fare. Bremsen er det som gjør det mulig å kjøre fort trygt.
Målet med The AI Doc er, ifølge Harris, å skape en felles forståelse. Ikke å overbevise folk om ett bestemt syn, men å gi dem klarhet nok til å ta stilling. Og deretter velge.
Ordliste
| Begrep | Forklaring |
|---|---|
| Rekursiv selvforbedring (recursive self-improvement) | Når et AI-system forbedrer sin egen kode og evner uten menneskelig hjelp, i en selvforsterkende løkke. |
| Apokaloptimist (apocaloptimist) | Noen som ser både de katastrofale risikoene og det store potensialet ved teknologi, uten å velge bare den ene siden. Laget for denne dokumentaren. |
| Føderal forrang (federal preemption) | Når den amerikanske føderalregjeringen tar enerett til å regulere noe, slik at delstatene mister retten til å lage egne regler. |
| Handlekraft (agency) | Evnen og viljen til å ta egne valg og påvirke utfallet av en situasjon, i motsetning til å la ting bare skje. |
Kilder og ressurser
Vil du vite mer? Se hele videoen på YouTube →