Hopp til innhold

GLN-7.5 — AI-nyheter forklart daglig

Martin Keen fra IBM Technology forklarer AI-agent-ferdigheter på en tavle
20. apr. 2026

AI-agenter vet mye, men mangler prosedyreminne. IBMs Martin Keen forklarer hvordan skill.md gir agenter den trinnvise kunnskapen reelt arbeid krever.

IBMAnthropicOpenAI
BBC AI Decoded-panel diskuterer Sam Altmans AI-blåkopi, robotskatt og autonome maskiner
19. apr. 2026

Sam Altman vil ha en ny samfunnskontrakt for AI-alderen. BBC AI Decoded lar et skarpt panel teste om noe av planen hans er realistisk.

OpenAIBBCOxford University
Peter Steinberger på TED-scenen under OpenClaw-foredraget
19. apr. 2026

Peter Steinberger tok AI-agentreisen fra utbrenthet til TED-scenen og argumenterte for at agenter endrer hvem som kan bygge. Chris Anderson ble skremt.

OpenClawTEDAnthropic
Peter Steinberger på scenen på AI Engineer med oppdatering om OpenClaw
18. apr. 2026

Etter fem måneder er OpenClaw GitHubs raskest voksende prosjekt og en magnet for AI-generert sikkerhetsstøy. Peter Steinbergers oppdatering.

OpenClawOpenAINVIDIA
Daniel Wiegand fra IBM forklarer AI, RAG og agenter for drift av stormaskiner
18. apr. 2026

Generelle språkmodeller svarer selvsikkert feil på spesialiserte systemer. Wiegands CICS-eksempel viser et troverdig stormaskin-svar som egentlig var galt

IBMIBM Technology
Illustrasjon av en person med en mørk grå vinterlue med innebygde sensorer koblet til en telefonskjerm, som representerer Sabis hjernelesende bærbare enhet
18. apr. 2026

Sabis satsing er en avveining: ingen hjernekirurgi, men signaler som må gjennom hud og bein. Den avveiningen er grunnen til at teknologien kan skaleres, og grunnen til at den er tregere enn et implantat

SabiKhosla VenturesNeuralink
Anthropic-graf med tittelen Agentic coding performance by effort, som viser at Opus 4.7 slår Opus 4.6 på hvert innsatsnivå, med en stiplet linje som skiller medium, high, xhigh og max
17. apr. 2026

Opus 4.7 er ikke en direkte erstatning for Opus 4.6. Tokenisatoren er byttet ut og modellen tenker mer på høyere innsatsnivå, så gamle prompter kan både oppføre seg og koste annerledes

Anthropic
Reklamebilde for Claude Design fra Anthropic Labs: overlappende mykfargede flater i oransje, krem og blått bak Claude Design-logoen, som antyder en visuell arbeidsflate
17. apr. 2026

Claude Design er det sjette Anthropic Labs-produktet på under fire måneder, og bekrefter at Labs fungerer som en ekte produktfabrikk, ikke et PR-eksperiment

Anthropic
Vercel-sjef Guillermo Rauch i en Forbes-videominiatyr om AI-kode-boomen
17. apr. 2026

Vercels konkurransefortrinn ligger ikke i teknologien, men i en bivirkning: Next.js er åpen kildekode og overrepresentert i treningsdataene, så språkmodeller lager Next.js-apper som havner på Vercel

VercelAnthropicNotion
CNBCs Deirdre Bosa om det brutte AI-etterspørselssignalet og Anthropics prisstrategi
17. apr. 2026

Token-forbruk som måltall kan manipuleres. Når ansatte konkurrerer på topplister om å bruke mest AI, måler tallet ikke lenger ekte bruk

AnthropicCNBCNVIDIA
IBM Technology podcast-thumbnail for episoden om GPT-5.4-Cyber
17. apr. 2026

GPT-5.4-Cyber er finjustert spesifikt for cybersikkerhet, ikke bare GPT-5.4 med løsere rekkverk. Det er et kvalitativt skifte, ikke en justering av retningslinjene

OpenAIAnthropicIBM
Gregory Allen intervjues på Bloomberg Television om Anthropics Mythos-modell
17. apr. 2026

Mythos er ikke trent til å hacke med vilje. Evnen kommer som biprodukt av å bli ekstremt god på kode. Det betyr at andre toppmodeller sannsynligvis vil utvikle samme egenskaper når de blir gode nok på koding

AnthropicPentagonNSA
Bri Kopecki forklarer de syv ferdighetene en agent engineer trenger, på en IBM Technology-video
17. apr. 2026

Å skrive gode prompts er ikke en jobb lenger. Det er minstekravet. Den reelle jobben er å bygge et system, ikke en setning

IBMIBM Technology
CNBC Television-studio med Deirdre Bosa som intervjuer Eric Glyman om tokenmaxxing
17. apr. 2026

Tokenmaxxing gjør AI-forbruk til et prestasjonsmål, men Goodharts lov sier at et måletall som blir et mål, slutter å måle det det skulle

RampOpenAIAnthropic
Eric Yuan intervjuet av Liz Claman på Fox Business
17. apr. 2026

Yuan deler arbeid i to steg. Menneske-til-menneske og menneske-til-system. Han vil at AI skal absorbere hele det andre steget, ikke bare levere bedre møtereferater

ZoomFox Business
Oransje blokk-robot som ligger på et piknikkteppe i en solrik hage med laptop, telefon og svevende varslingsikoner, med teksten Claude Code Channels Remote Control Dispatch Scheduled Tasks Cowork Talk to Your AI From Anywhere
9. apr. 2026

Claude Code gikk fra å kreve at du satt ved PCen til å være tilgjengelig fra hvor som helst i løpet av måneder, noe som viser hvor raskt AI-verktøy utvikler seg forbi chatteboten

Anthropic
Demis Hassabis i samtale med Harry Stebbings på 20VC-podkasten
9. apr. 2026

Hassabis beskriver AGI som '10 ganger den industrielle revolusjonen, 10 ganger så raskt': en omveltning som kan skje på ett tiår i stedet for ett århundre. Det gir lite tid til å tilpasse utdanning, arbeidsliv og regelverk.

Google DeepMind
NBC News-intervju med Cornell-professor Chris Schaffer om muntlig eksamen
9. apr. 2026

AI gjorde ikke hjemmeoppgaver ubrukelige. Det tvang frem en ny måte å teste på: i stedet for å vurdere svar, vurderer man nå forståelse.

Cornell UniversityNBC News
Theo Browne reagerer på kunngjøringen av Claude Mythos systemkort
9. apr. 2026

Sikkerhet var tidligere beskyttet av at svært få eksperter behersket både sikkerhetsteknikker og det spesifikke systemet de angrep. Mythos fjerner den flaskehalsen ved å kombinere solid sikkerhetskunnskap med bred forståelse av nesten alle programvaresystemer som finnes.

AnthropicCrowdStrike
Project Glasswing-lansering med logoer fra partnerorganisasjoner som AWS, Apple, Google, Microsoft og NVIDIA samlet under Anthropics initiativ for å sikre kritisk programvare.
8. apr. 2026

Anthropic lot sikkerhetseksperter bruke sin nye AI-modell til å finne feil i programvare før den ble sluppet til alle. Det er det stikk motsatte av Facebooks gamle motto: beveg deg raskt og bryt ting.

AnthropicAWSApple
IBM Technology-video om automatisk sikkerhetssjekk av AI-generert kode
8. apr. 2026

AI-generert kode er farlig ikke fordi den er åpenbart feil, men fordi den ser riktig ut: den kompilerer, passerer tester, og skjuler sårbarheter som bare dukker opp senere

IBM
CNBC-rapport om Meta som lanserer Muse Spark AI-modell
8. apr. 2026

Meta har brukt hundrevis av milliarder på AI-infrastruktur, men valgte bevisst å lansere en begrenset modell først. Det er en strategisk kursendring etter Llama 4 Maverick-skuffelsen.

MetaMeta Superintelligence LabsCNBC
Nicolai Tangen på scenen under NBIMs AI Summit med 'AI in the fund' på skjermen bak ham, foran et fullsatt auditorium
8. apr. 2026

NBIM behandler AI-innføring som et kulturproblem, ikke et teknologiproblem. Obligatorisk opplæring, ambassadørnettverk og konstant press drev bruken mer enn noe verktøy i seg selv.

NBIMAnthropicSnowflake
YouTube-miniatyrbilde med tittelen 'Claude Mythos Preview Will Change The World!' mot mørk bakgrunn med glødende teksteffekter og WorldofAI-logo.
8. apr. 2026

45% bedre på en test der AI fikser ekte programvarefeil er ikke en liten oppgradering. Det er forskjellen mellom en generasjon og neste.

Anthropic
Sam Altman, Josh Achiam og Adrien Ecoffet under OpenAI Forum-paneldiskusjonen
7. apr. 2026

OpenAI rammer inn superintelligens (AI som overgår mennesker på alle områder) som et politisk problem, ikke bare et teknisk. Debatten flyttes fra 'vil det fungere?' til 'hvem tjener på det og hvordan forbereder vi oss?'

OpenAIY Combinator
Two Minute Papers-thumbnail for videoen om NVIDIA Nemotron 3 Super
7. apr. 2026

NVIDIA ga bort ikke bare modellen, men også en 51-siders teknisk rapport med full dokumentasjon av treningsdata og metodikk. Slik åpenhet i denne skalaen er sjelden og setter en ny standard for åpen AI-utvikling.

NVIDIATwo Minute Papers
MacKenzie Sigalos rapporterer om Googles TPU-brikker på CNBC
7. apr. 2026

Googles TPU-er ble opprinnelig bygget for intern bruk. Nå kjøper eksterne kunder dem direkte, og et effektiviseringsverktøy er blitt en selvstendig inntektskilde for Alphabet.

GoogleNVIDIABroadcom
Walter Isaacson intervjues på CNBC om Altman-Musk-konflikten
7. apr. 2026

Konflikten er både personlig og strukturell. Å avfeie den som ego overser de reelle politiske spørsmålene, og å behandle den som rent ideologisk overser hvordan personlig forræderi former beslutninger på toppen av AI-industrien.

OpenAIAnthropicCNBC Television
Forsidebilde fra OpenAIs dokument Industrial Policy for the Intelligence Age, med tittelen over et abstrakt digitalt bylandskap i pastellfarger
7. apr. 2026

Et AI-selskap som aktivt ber om regulering av seg selv er uvanlig. Men OpenAI får også forme hva den reguleringen skal inneholde, noe dokumentet selv åpent erkjenner.

OpenAI
LG Uplus og OpenAI-ingeniører samarbeider om agentbasert AI-kundesenter
6. apr. 2026

Skiftet fra 'AI som svarer' til 'AI som gjør jobben': det nye systemet sjekker kontostatus, henter frem policyer og fullfører oppgaver uten å tvinge kunden gjennom stive menyer

OpenAILG Uplus
Sam Altman intervjues av Mike Allen fra Axios om superintelligens og Washingtons beredskap
6. apr. 2026

OpenAI posisjonerer seg som 'pedagog' overfor beslutningstakere. Selskapet som bygger teknologien er også den som setter rammene for politikkdiskusjonen, og den som definerer problemet former gjerne løsningen.

OpenAIAxios
Dan Disler foran en laptop med teksten 'AGENT HARNESS' synlig på skjermen
6. apr. 2026

Agent-harnessen er produktet, ikke modellen. Modeller blir stadig mer like hverandre. Det er infrastrukturen rundt dem milliardverdiene ligger i.

AnthropicPi Dev
Martin Keen forklarer multimodal AI med diagrammer på en tavle
6. apr. 2026

Delte vektorrom lar AI resonnere om tekst og bilde samtidig, uten å måtte oversette mellom to separate systemer

IBM
Dr. Regina Barzilay intervjues på BBC AI Decoded om AI-modellen MIRAI for kreftprediksjon
5. apr. 2026

MIRAI oppdager subtile endringer i farge og tekstur i mammografibilder som det menneskelige øyet ikke kan se, og forutsier kreftrisiko år før noen lege ville bestilt en biopsi.

BBCMIT
BBC AI Decoded-programledere og gjester diskuterer fremtidens arbeidsliv med AI
5. apr. 2026

AI tømmer jobber for innhold snarere enn å fjerne dem helt, ved å ta over de repetitive oppgavene og etterlate den strategiske og relasjonelle kjernen. Det krever en grunnleggende tenkning om hva arbeid faktisk er.

BBCBlackRockKlarna
Alanah Pearce med teksten WILL NVIDIA CHANGE GAMING? på skjermen
5. apr. 2026

NVIDIAs jakt på fotorealisme tjener investorene mer enn spillerne. Retro- og indiespill trives uten 4K-realisme, og viser en grunnleggende kløft mellom hva teknologiselskaper bygger og hva spillere faktisk vil ha

NVIDIABBCProximie
Grant Miller fra IBM forklarer hvordan man sikrer tillitskjeden i agentbaserte AI-systemer med tokens og delegering.
5. apr. 2026

Den største sikkerhetsrisikoen i agentbasert AI er ikke modellen i seg selv, men identitetskjeden som kobler bruker, agent og verktøy. De fleste AI-sikkerhetsdiskusjoner handler om modellsikkerhet, mens infrastrukturnivåets tillit blir oversett.

IBM
Napster-sjef John Acunto snakker på Bloomberg This Weekend om strømmende intelligens
5. apr. 2026

Napster satser på at fremtidens AI er samtalebasert, ikke tekstbasert. Sjef John Acunto kaller dagens grensesnitt en «promptfase» som vil vike for naturlige samtaler.

NapsterBloomberg
Greg Brockman i studio under Big Technology Podcast
5. apr. 2026

OpenAI legger ned sitt mest virale produkt, Sora, fordi videogenerering ligger på en annen teknologigren enn GPT-resonneringsmodellene selskapet satser fremtiden på.

OpenAINVIDIAAnthropic
Shona Ghosh og Christina Ruffini diskuterer AI-FOMO på Bloomberg This Weekend
5. apr. 2026

AI-selskaper lanserer modeller raskere enn noen klarer å absorbere, og det tidspresset er designet, ikke tilfeldig.

YouTubeBloomberg
Ayşe Coskun på TED-scenen under TEDAI San Francisco 2025
3. apr. 2026

I motsetning til sykehus og hjem kan AI-oppgaver forskyves, bremses og flyttes uten at brukerne merker det. Det gjør datasentre til unike ressurser for strømnettet.

TEDEmerald AIBoston University
Nate B Jones forklarer arkitekturlekkasjen fra Claude Code på YouTube-kanalen AI News & Strategy Daily.
3. apr. 2026

Å bygge AI-agenter er 80 prosent grunnarbeid og 20 prosent AI. De fleste team hopper over grunnarbeidet og lurer på hvorfor demoen krasjer når den tas i bruk i virkeligheten.

Anthropic
Stephen Sopko fra HyperFRAME Research intervjues på Fox Business om fotonikk og AI-infrastruktur.
3. apr. 2026

Kobber traff en fysisk vegg. AI-arbeidsmengder overskred kobberteknologiens 40 år gamle båndbreddetak. Det er ikke en designfeil, men en naturlov.

NVIDIACoherent CorpMACOM
Forbes-video: Kinesiske AI-gründere anklages for kopiering, men blir milliardærer
3. apr. 2026

Destillering gjør at en liten AI-modell kan hente 80-90 % av ytelsen til en stor modell til en brøkdel av kostnaden. Det undergraver milliardene OpenAI og Anthropic har brukt på trening.

Sam Witteveen demonstrerer Gemma 4 på YouTube
3. apr. 2026

Apache 2.0-lisensen kan bety mer enn selve modellen. Tidligere Gemma-versjoner hadde restriksjoner som drev utviklere til Llama og Qwen i stedet. Nå kan hvem som helst bruke, tilpasse og selge produkter basert på Googles beste åpne modell.

OpenAI sin founder spotlight om Gradient Labs
2. apr. 2026

Det egentlige produktet er ikke en chatbot. Gradient Labs selger et system som kan fullføre regulerte kundeserviceforløp fra start til slutt.

OpenAIGradient LabsMonzo
Google for Developers presenterer Gemma 4 som åpne modeller
2. apr. 2026

Google prøver å få åpne modeller til å framstå som klare for ekte produkter, ikke bare som noe spennende å laste ned, ved å plassere Gemma 4 på maskinvare utviklere allerede eier.

YouTubeGoogle for DevelopersGoogle DeepMind
Anthropic-forklaring om Claudes funksjonelle emosjoner og modelltolkbarhet
2. apr. 2026

Anthropic flytter debatten bort fra om Claude bokstavelig talt føler noe og over til om interne emosjonskonsepter faktisk påvirker adferden.

YouTubeAnthropicClaude