Hopp til innhold
Tilbake til artikler

AI-agenter knuste børsen. Washington løftet ikke en finger.

28. februar 2026·10 min lesing·2,030 ord
AIReguleringWall StreetAI-agenterVideooppsummering
CNBCs Deirdre Bosa rapporterer om AI-agenter, markedsforstyrrelser og kollapsen av AI-sikkerhetsløfter
Bilde: Skjermbilde fra YouTube.

Nøkkelinnsikt

  • AI-agenter passerte en kapabilitetsterskel tidlig i 2026 og gikk fra chatbots til autonome arbeidere som bygger programvare og erstatter hele arbeidsprosesser
  • Selskapene som lovet å regulere seg selv dropper nå sine egne sikkerhetsløfter, og peker på konkurrenter som grunnen til at de ikke kan holde linjen
  • En super-PAC på 125 millioner dollar støttet av OpenAIs medgründer retter seg mot lovgiveren som skrev USAs første store AI-sikkerhetslov
KildeYouTube
Publisert 28. februar 2026
CNBC
CNBC
Vertskap:Deirdre Bosa
Gjest:Alex Bores (medlem av New York State Assembly, kandidat til Kongressen)

Denne artikkelen oppsummerer AI Just Took Over. No One's In Charge.. Se videoen

Les denne artikkelen på English


Kort fortalt

I løpet av de to første månedene av 2026 gikk AI fra å være en chatbot som hjelper med skriving, til en autonom agent som tar over datamaskinen din, bygger programvare og fullfører timevis med oppgaver på egen hånd. Wall Street reagerte med panikk: IGV-fondet (et børsfond som følger amerikanske programvareselskaper) falt nesten 30 %. Samtidig dropper selskapene som lovet å regulere seg selv sine egne sikkerhetsløfter. CNBCs Deirdre Bosa går inn i markedskaoset, sikkerhetskollapsen, og en politisk kamp der en super-PAC (politisk fond) på 125 millioner dollar prøver å stoppe lovgiveren som skrev USAs første store AI-sikkerhetslov.

~30 %
fall i IGV-fondet på to måneder
800 mill.
ukentlige ChatGPT-brukere
$125 mill.
super-PAC mot AI-regulering

Det tredje vendepunktet: agenter som faktisk jobber

Bosa beskriver det hun kaller AIs tredje vendepunkt (1:26). Det første var ChatGPT for to år siden. Det andre var resonneringsmodeller (reasoning models) for omtrent et år siden. Det tredje skjer nå: AI-agenter (autonome systemer som kan ta imot oppgaver, ta beslutninger og gjøre ekte arbeid uten konstant menneskelig veiledning).

For å demonstrere ga Bosa en AI-agent én eneste instruksjon: lag en ti-sliders presentasjon på executive-nivå om AI-agenter i 2026 (2:00). Agenten tok over datamaskinen hennes, forsket, skrev overskrifter og kulepunkter, bygde layout, og leverte et ferdig resultat. En ny instruksjon endret hele stilen. To instruksjoner, null manuelt arbeid.

Dette er ikke en labo-demo. Advokater bruker agenter til å bygge hele saker. Markedsførere lanserer fulle kampanjer. Folk som aldri har skrevet en linje kode bygger programvare, nettsider og apper på en ettermiddag (2:51). Én person Bosa snakket med bygde på fire dager det som ville tatt et team av utviklere flere uker.

En undersøkelse fra Pew Research viser at amerikanere nå er mer bekymret enn begeistret for AI i hverdagen, men de bruker det likevel (3:20). ChatGPT har over 800 millioner ukentlige brukere, og tallet vokser.


Markedet priser inn frykt

Spenningen er ikke bare kulturell. Wall Street er i salgspanikk, og blodbadet rammer bredt (3:56).

SektorHva skjedde
SaaS (Software as a Service, skybasert abonnementsprogramvare)Fortsatt nedsalg over hele sektoren
SpillbransjenUnity, Roblox, Take-Two stupte etter at Alphabet rullet ut nye verktøy
Juridiske tjenesterAksjene ble knust
MeglerhusSiste ofre
LastebilbransjenSelg først, still spørsmål etterpå
CybersikkerhetFor det meste lavere etter et stort fall

IGV-fondet falt nesten 30 % i løpet av de to første månedene av 2026 (4:22). Bosa sier det rett ut: den samme teknologien som skulle redde programvareselskapene truer nå med å ta livet av dem.

Årsaken ifølge Bosa: AI-agenter kobles nå direkte til bedriftsprogramvare via åpne integrasjoner, uten noen standard for hva AI-en kan få tilgang til eller gjøre (4:40). Agentene som lager presentasjoner i en demo er nå inne i systemene de selskapene pleide å ta betalt for.


Ingen har kontroll

Per nå finnes det ingen føderal lov som regulerer AI i USA. Ingen nasjonal standard. Ingen dedikert tilsynsmyndighet (6:10). Den eneste reelle AI-reguleringen kommer fra to delstatslover: SB-53 i California og Raise Act i New York.

Her kommer Alex Bores inn. Han har en mastergrad i informatikk, jobbet hos Palantir (et dataanalyseselskap brukt av myndigheter og store selskaper), ble valgt inn i New York State Assembly, og skrev Raise Act (5:37). Han stiller nå til valg til den amerikanske Kongressen, og valgkampen hans har blitt episenteret for det største spørsmålet i teknologibransjen: hvem skal bestemme hva AI kan og ikke kan gjøre?

For dette møter han en super-PAC (et politisk fond som kan samle inn ubegrensede midler for å støtte eller motarbeide kandidater) på 125 millioner dollar kalt Leading the Future. Fondet støttes av OpenAI-medgründer Greg Brockman, venturekapitalselskapet Andreessen Horowitz og Palantirs Joe Lonsdale (6:21). Argumentet deres: regulering vil gi ledelsen til Kina.

Bores ser det annerledes. Han peker på at de fleste av disse menneskene er mot eksportkontroll på AI-brikker til Kina (6:35). Han bemerker også at Kina regulerer AI langt strengere enn noe som er foreslått i Vesten, fordi det kinesiske kommunistpartiet er livredd for hva en stor språkmodell (LLM, Large Language Model, AI-systemet bak ChatGPT og Claude) kan si eller hvordan den kan styrke befolkningen (17:50).


Sikkerhetskollapsen

Menneskene som bygger denne teknologien slår alarm selv (7:36).

I år sa lederen for Anthropics sikkerhetsteam opp. I oppsigelsen skrev han at verden er i fare. Han beskrev presset ved å se selskapet sitt veie sikkerhetsverdier mot kappløpet om å konkurrere (7:40).

Noen dager senere sa en OpenAI-forsker opp og skrev et innlegg i New York Times med tittelen «OpenAI gjør de samme feilene som Facebook», der han advarte om at ChatGPTs brukerdata nå tjenes penger på gjennom reklame (7:51). En annen OpenAI-ansatt skrev kort og godt: «Jeg kjenner endelig den eksistensielle trusselen som AI utgjør» (8:15).

Og så er det Anthropic, selskapet som skulle være motvekten. Toppsjef Dario Amodei grunnla selskapet fordi han mente OpenAI gikk for fort frem (8:29). Anthropic bygde omdømmet sitt og verdsettelsen på løftet om at de skulle utvikle AI på en ansvarlig måte.

Hva skjedde? Anthropic publiserte forskning som viser at deres egen AI kan hjelpe med å lage kjemiske våpen. OpenAI fant at deres nyeste modell kan hjelpe med å planlegge biologiske trusler (9:02). Og Anthropic har skrotet kjerneløftet om sikkerhet de ble grunnlagt på, og erstattet bindende forpliktelser med det de kaller «ikke-bindende, offentlig erklærte mål», fordi konkurrentene ellers kunne løpe fra dem (9:14).

Samtidig er Anthropic i en offentlig konfrontasjon med Pentagon. Militæret vil at Anthropic skal fjerne sikkerhetsbarrierer etter at selskapet nektet å la teknologien brukes til helautonome våpen eller masseovervåking av amerikanere. Pentagon truer med å svarteliste dem (9:30).

Som Bosa oppsummerer: Anthropic presses av militæret til å droppe prinsippene sine, og velger samtidig på egen hånd å droppe andre (9:44).


Alex Bores: lovgiveren med 125 millioner dollar mot seg

Andre halvdel av episoden er et fullstendig intervju med Bores. Flere poenger skiller seg ut.

Raise Act retter seg mot fem selskaper

Raise Act ville gjelde de fem største AI-utviklerne: OpenAI, Anthropic, xAI, Google og Meta (26:30). Loven krever at de publiserer sikkerhetsplaner, følger dem, og rapporterer kritiske sikkerhetshendelser (definert som hendelser som innebærer overhengende eller faktisk skade eller død). Bores kaller det en svært høy terskel og en svært lav standard for hva som kreves (26:54).

Kina-argumentet er ikke i god tro

Bores hevder at påstanden «regulering gir ledelsen til Kina» sjelden tåler gransking. De som bruker dette argumentet er stort sett mot eksportkontroll på brikker til Kina, som ville vært den mest direkte måten å bremse kinesisk AI på hvis det var den reelle bekymringen (17:36). Kina regulerer AI langt strengere enn noe foreslått i Vesten. Og Raise Act inneholdt opprinnelig en bestemmelse om kunnskapsdestillasjon (knowledge distillation, en teknikk der en mindre AI-modell lærer å kopiere oppførselen til en større), den eksakte teknikken DeepSeek brukte for å ta igjen ChatGPT. Akselerasjonistene lobbet for å fjerne den bestemmelsen (18:06).

Vinduet kan allerede være i ferd med å lukke seg

Bores erkjenner at regulering kanskje allerede er for sent (29:07). Men han mener det er nettopp derfor super-PAC-en bruker så mye i denne valgkampen: de trenger bare å utsette regulering noen få år til før selskapene blir for mektige til å regulere i det hele tatt. Han rammer det inn som et kappløp mot et vindu som lukkes, ikke en debatt om man skal regulere.

Sikkerhetsforskning fremskynder faktisk kapabiliteter

Bores kommer med et overraskende poeng: noen av de største gjennombruddene i AI-kapabiliteter kom fra sikkerhetsmiljøet (22:06). Forsterket læring fra menneskelige tilbakemeldinger (RLHF, en treningsteknikk som lærer AI å følge instruksjoner basert på hva mennesker foretrekker) kom fra sikkerhetsforskere. Trinnvis resonnering (chain-of-thought, der AI-modeller viser tankeprosessen sin steg for steg) kom fra sikkerhetsforskere. Han hevder at markedet overvurderer kortsiktige gevinster og undervurderer den grunnleggende forskningen som gjør AI pålitelig på lang sikt.

Super-PAC-en vil statuere et eksempel

Leading the Future har gjort det klart at hvis de vinner dette valget, planlegger de å oppsøke hvert eneste kongressmedlem og si: «Ikke våg å regulere AI, ellers bruker vi 10 millioner dollar mot deg» (26:05). Bores sier han tror de vil gjøre det uansett, men det er langt mindre slagkraftig hvis de har tapt sitt første valg.

Bores bruker Claude Code

I et overraskende øyeblikk forteller Bores at han ikke bare bruker AI-verktøy daglig, men at han har sendt en kodeendring (pull request) til Claude Codes GitHub-repo der han fikset et ytelses­problem i iMessage-koblingen (23:37). Bosa påpeker at daglige kursfall i bransje etter bransje føles direkte knyttet til Claude Codes kapabiliteter (24:16).


Datasentre og energispørsmålet

Bores ser datasentre som en potensiell vinn-vinn-vinn-situasjon hvis insentivene er riktig utformet (32:55). Det amerikanske strømnettet er gammelt og trenger oppgradering. AI-bransjen har nesten ubegrenset kapital og er villig til å betale ekstra for rask tilgang. Hvis datasentre pålegges å bringe ny fornybar energi inn på nettet og betale for oppgraderinger, kan resultatet bli et renere og mer pålitelig strømnett som gagner alle.

Uten disse insentivene advarer han om at datasentre enten belaster nettet og driver opp strømregningen, eller går helt utenfor nettet slik Elon Musk gjorde i Tennessee, noe som kan føre til direkte forurensning (31:40).


Hvordan tolke styrings­vakuumet

Denne rapporten kommer i et øyeblikk der tre trender møtes samtidig, og samspillet mellom dem betyr mer enn hver enkelt.

Kapabilitetshoppet er reelt, men spredningen er ujevn

AI-agenter som bygger programvare fra to instruksjoner er imponerende. Men Bosas demonstrasjon og markedsreaksjonen avslører et gap mellom det tidlige brukere opplever og det folk flest forstår. ChatGPT har 800 millioner ukentlige brukere, men de fleste bruker det fortsatt som en chatbot, ikke som en autonom agent. Markedet priser inn en fremtid de fleste brukere ennå ikke har møtt.

Selvregulering har offisielt feilet

Episoden gjør dette poenget direkte. Alle store AI-selskaper forpliktet seg til frivillige sikkerhetsløfter i 2023 og 2024. Hvert løfte inneholdt en fluktklausul: hvis konkurrentene dropper sine løfter, gjør vi det også. Det er nøyaktig det som skjedde. Anthropic, selskapet bygget på løftet om sikkerhet-først-utvikling, erstatter nå bindende forpliktelser med ikke-bindende mål. Når selskapet som eksisterer spesifikt for å være det ansvarlige alternativet svekker sine egne standarder, er den frivillige modellen over.

Den politiske kampen er asymmetrisk

Bores, en delstats-lovgiver, stiller til Kongressen mot en krigskasse på 125 millioner dollar finansiert av bransjen han vil regulere. Super-PAC-ens uttrykte strategi er å statuere et eksempel: slå én regulator så hardt at ingen annen lovgiver prøver. Om Bores vinner eller taper, er selve asymmetrien historien. Den viser hvor mye bransjen er villig til å bruke for å holde reguleringsvinduet åpent.


Ordliste

BegrepForklaring
AGI (Artificial General Intelligence)Et hypotetisk AI-system som kan matche eller overgå menneskelig ytelse på tvers av alle kognitive oppgaver. Eksisterer ikke ennå.
AI-agentEt AI-system som kan ta imot oppgaver, ta beslutninger og fullføre arbeid med flere steg på egen hånd, uten konstant menneskelig veiledning.
EksportkontrollStatlige restriksjoner på salg av visse teknologier (som avanserte AI-brikker) til andre land.
IGViShares Expanded Tech-Software Sector ETF, et børsfond som følger amerikanske programvareselskaper.
Kunnskapsdestillasjon (Knowledge Distillation)En teknikk der en mindre AI-modell lærer å etterligne oppførselen til en større, mer kapabel modell. DeepSeek brukte dette for å ta igjen ChatGPT.
LLM (Large Language Model, stor språkmodell)AI-systemet bak ChatGPT, Claude og lignende verktøy. Trent på enorme mengder tekst for å forstå og generere språk.
Raise ActLov fra New York State skrevet av Alex Bores som krever at de største AI-utviklerne publiserer og følger sikkerhetsplaner og rapporterer kritiske sikkerhetshendelser.
RLHF (forsterket læring fra menneskelige tilbakemeldinger)En treningsteknikk som lærer AI-modeller å følge instruksjoner ved å lære av menneskelige tilbakemeldinger om hva et godt resultat ser ut som.
SaaS (Software as a Service)Programvare levert over internett på abonnementsbasis (som Salesforce, Slack eller Zoom) i stedet for installert lokalt.
SB-53Lov fra California som regulerer AI-utvikling, en av de første i USA.
Super-PACEt politisk fond som kan samle inn ubegrensede midler for å støtte eller motarbeide kandidater, men som ikke kan samarbeide direkte med valgkampanjer.
Trinnvis resonnering (Chain-of-Thought Reasoning)En teknikk der AI-modeller viser tankeprosessen sin steg for steg, noe som forbedrer nøyaktigheten på vanskelige oppgaver.

Kilder og ressurser