Hopp til innhold
Tilbake til artikler

USA trenger ett AI-regelverk, ikke femti, sier eks-rådgiver

28. mars 2026/3 min lesing/691 ord
AI RegulationAI AgentsAnthropicAI Ethics
Joe Scheidler intervjues av Bloomberg Technology om AI-regulering i USA
Bilde: Skjermbilde fra YouTube.

Nøkkelinnsikt

  • Et lappeteppe av 50 delstatsregler gjør det umulig å bygge AI som fungerer i hele USA, men USA har ennå ingen føderal lov. Mens amerikanerne debatterer, regulerer EU allerede med en samlet AI Act
  • Anthropic-saken viser at tech-selskapene og staten er uenige om hvem som bestemmer hvordan AI brukes i forsvaret. Spørsmålet blir mer presserende jo kraftigere modellene blir
  • Overregulering av AI-agenter kan bremse produktivitetsgevinster i hele økonomien. Men ingen regulering er heller ikke et alternativ i et globalt kappløp der stilstand er et valg
KildeYouTube
Publisert 27. mars 2026
Bloomberg Technology
Bloomberg Technology
Vertskap:Ed Ludlow
Helios
Gjest:Joe ScheidlerHelios

Dette er et AI-generert sammendrag. Kildevideoen kan inneholde demonstrasjoner, visuelt innhold og ytterligere kontekst.

Se videoen · Slik lages artiklene

Kort fortalt

David Sacks, USAs tidligere AI- og kryptotsar og nå medleder i Det hvite hus sitt vitenskapsrådgivende utvalg, var tydelig: 50 delstater med hvert sitt AI-regelverk er ikke bærekraftig. Joe Scheidler, toppsjef i Helios og tidligere rådgiver i Det hvite hus og Utenriksdepartementet, er enig. Han mener USA trenger ett nasjonalt rammeverk nå, ikke et lappeteppe av regler som ingen selskaper kan navigere.


Lappeteppet ingen kan følge

USA er midt i et teknologisk kappløp, men reguleringslandskapet ser ut som et lappeteppe sydd av 50 ulike håndverkere. Delstatene California, New York og Texas har alle sine egne AI-regler i ulik grad av utvikling. Resultatet er at et selskap som vil lansere et AI-produkt nasjonalt, i prinsippet må forholde seg til et halvt hundre forskjellige regelverk.

Problemet er ikke at det finnes for lite regulering. Det finnes for mye regulering på feil nivå. Scheidler, som har sittet på begge sider av bordet som både gründer og myndighetsperson, sier det rett ut: USA trenger «ett nasjonalt rammeverk som fremmer denne kritiske teknologien i en av de mest avgjørende periodene i moderne historie».

Teknologien er horisontal, sier han. Den kutter tvers gjennom alle bransjer og sektorer, alt fra helse til logistikk til forsvar. Det gjør det vanskelig å lage vertikale regler som passer for én bransje uten å hindre en annen. Og det gjør det nesten umulig å lage 50 ulike varianter av de samme reglene.


Hvis ikke Amerika, hvem da?

Sacks og Scheidler deler ikke bare en diagnose. De stiller det samme spørsmålet: «If not America, then who?» Altså: hvis USA ikke leder an i AI, hvem gjør det?

Svaret er implisitt. Kina bygger ut AI-kapasitet i et tempo som ikke begrenses av interne politiske debatter. EU har allerede vedtatt AI Act, et samlet europeisk regelverk. USA, verdens teknologiske stormakt, er uten en føderal AI-lov.

Scheidler mener det er altfor tidlig å ta en overreguleringstilnærming til en teknologi man ennå lærer seg å forstå. Det er et argument med reell tyngde: regulering som stivner tidlig kan fryse fast feil normer og stenge ute innovasjon. Men det er også et argument som misbrukes av aktører som ikke vil ha noen regler i det hele tatt.

Dilemmaet er genuint. Regulerer du for mye og for tidlig, bremser du de produktivitetsgevinstene som kan hjelpe millioner av amerikanere. Regulerer du for lite, mister du kontroll over teknologi som allerede brukes i nasjonale sikkerhetssystemer.


Hvem bestemmer over AI i krigen?

Den mest betente delen av samtalen handler om Anthropic og forsvaret. Anthropic har offentlig sagt at de ikke vil at Claude-modellene skal brukes i direkte militære angrepsoperasjoner. Men Pentagon er ikke enig i at Anthropic får bestemme det.

Scheidler er tydelig på dette: «Det er et farlig prinsipp å la styrerommene og private ledere ha for mye innflytelse over myndighetssystemer som har klare prosesser for endring».

Med andre ord: et privat selskap kan gjerne mene noe om hvordan teknologien brukes. Men i et demokrati er det valgte representanter og etablerte prosesser som bestemmer forsvarspolitikken, ikke selskapets etiske retningslinjer.

Det er et poeng med demokratisk tyngde. Samtidig er det verdt å spørre: hva skjer når de demokratiske prosessene ennå ikke har tatt stilling til AI i krig? Hvem bestemmer i mellomtiden?


AI-agenter og faren for å regulere for fort

Mot slutten av samtalen spør Bloomberg-vert Ed Ludlow om AI-agenter, altså AI-systemer som handler selvstendig og utfører oppgaver uten at et menneske styrer hvert steg.

Scheidler svarer med et ord: vertikal. USA trenger ikke generelle regler for alle AI-agenter på en gang. Det trengs bransjespesifikk regulering som tar hensyn til konteksten, om det er helse, finans eller offentlig forvaltning. En AI-agent som hjelper en lege med diagnoser krever andre regler enn en agent som automatiserer innkjøpsordrer.

«Å ta en overreguleringstilnærming til agentiske arbeidsflyter kan være kortsiktig i det store bildet av det globale konkurransekappløpet», sier han.

Det er et viktig poeng. AI-agenter er allerede i bruk i bedrifter og offentlige etater. Regler som låser ned disse systemene nå, kan fryse ut produktivitetsgevinster som hele sektorer er i ferd med å realisere.


Ordliste

BegrepForklaring
Lappeteppe av regelverk (patchwork of regulations)Når mange ulike myndigheter lager sine egne regler som ikke er samkjørte. Resultatet er kaos for selskaper som opererer nasjonalt.
Nasjonalt rammeverk (national framework)Ett sett med regler som gjelder i hele landet, i stedet for ulike regler i hver delstat.
AI-agenter (agentic workflows)AI-systemer som handler selvstendig og utfører oppgaver uten at et menneske styrer hvert steg.
Vertikal tilnærming (verticalized approach)Å regulere bransjespesifikt, for eksempel helse, forsvar eller finans, i stedet for med én generell regel for alt.
AI-tsarUformell tittel for en person utpekt til å koordinere et lands AI-politikk på høyeste nivå.

Kilder og ressurser

Del denne artikkelen