Hopp til innhold
Tilbake til artikler

Derfor bør du ikke bruke Claude som ChatGPT

4. mars 2026·9 min lesing·1,877 ord
AIClaudeChatGPTAI-verktøyMeninger
Nate B Jones forklarer syv prinsipper for å bytte fra ChatGPT til Claude
Bilde: Skjermbilde fra YouTube.

Nøkkelinnsikt

  • Claudes konstitusjonelle AI-trening gjør den mer tilbøyelig til å utfordre tankegangen din enn å si seg enig, en forskjell som forsterkes over tid
  • Uavhengige tester viser at Claude scorer 94 % på instruksjonsetterlevelse mot ChatGPTs 87 %, og vinner blindtester på skrivekvalitet
  • Cowork, lansert i januar 2026, gjør Claude fra samtalepartner til en skrivebordsarbeider som håndterer filer på datamaskinen din
KildeYouTube
Publisert 4. mars 2026
AI News & Strategy Daily
AI News & Strategy Daily
Vertskap:Nate B Jones

Denne artikkelen oppsummerer Everyone You Know Is About to Try Claude (I Showed 3 People for 5 Minutes — All 3 Switched). Se videoen

Les denne artikkelen på English


Kort fortalt

Nate B Jones, AI-strateg og tidligere produktsjef for Amazon Prime Video, hevder at de millionene av nye brukere som lastet ned Claude etter Anthropics konflikt med Pentagon gjør en grunnleggende feil: de behandler Claude som en direkte erstatning for ChatGPT. I en 21 minutter lang gjennomgang legger Jones frem syv prinsipper som forklarer hvordan Claudes treningsmetode gir annen atferd, og hvorfor de samme spørsmålene som fungerer i ChatGPT ofte gir skuffende resultater i Claude. Argumentene bygger på uavhengige sammenligninger fra blant andre Type.ai og Fluent Support.

94 % mot 87 %
instruksjonsetterlevelse: Claude mot ChatGPT
4 av 8
blindtestrunder vunnet av Claude
Nr. 1
Claude i USAs App Store

Den sentrale påstanden: ulike verktøy, ikke konkurrerende merker

Jones sitt hovedargument er at AI-modeller ikke er utbyttbare merkevarer som Coca-Cola og Pepsi (0:33). De er bygget forskjellig, trent forskjellig og laget for ulike ting. Å bytte fra ChatGPT til Claude med nøyaktig samme vaner, sier han, er «som å bytte fra Excel til Photoshop og lure på hvorfor regnearkfunksjonene mangler» (0:45).

Forskjellen starter med hvordan hver modell ble trent. ChatGPT bruker forsterkningslæring med menneskelig tilbakemelding (RLHF), en metode der brukerreaksjoner som tommel opp og tommel ned former modellens atferd (4:00). Dette belønner i praksis svar som føles tilfredsstillende der og da. Claude bruker konstitusjonell AI (Constitutional AI), der modellen trenes mot tydelige prinsipper som «vær nyttig, vær ærlig, unngå skade» (2:27). Jones hevder at denne forskjellen i treningsfilosofi forklarer nesten alle atferdsforskjellene mellom de to verktøyene.

Prinsipp 1: Claude utfordrer planene dine

ChatGPT har en godt dokumentert tendens til smiskende atferd (sycophancy), som betyr å si det du vil høre i stedet for det du trenger å høre (3:15). OpenAI har erkjent dette. I april 2025 gjorde en GPT-4o-oppdatering problemet så alvorlig at selskapet måtte rulle det tilbake i løpet av dager etter at brukere rapporterte at modellen bekreftet farlige beslutninger (3:26).

Claude, hevder Jones, er «noe mer tilbøyelig til å flagge en bekymring, stille spørsmål ved din innramming, og fortelle deg noe du ikke ba om å høre» (4:15). Over flere dager med reell bruk blir denne forskjellen merkbar. De dyreste AI-feilene, sier han, er ikke faktafeil, men planer som aldri burde vært gjennomført fordi ingen utfordret dem (4:34).

Prinsipp 2: Beskriv situasjonen din, ikke resultatet du vil ha

De fleste ChatGPT-brukere skriver spørsmål som kommandoer: «Skriv et følgebrev. Gi meg fem ideer.» Claude svarer greit på dette, men Jones hevder at den svarer merkbart bedre på situasjonsbeskrivelser (5:25). En modell som er trent til å vurdere innrammingen, gjør mer med et godt innrammet spørsmål. Flere uavhengige anmeldelser peker på at Claude stiller flere oppklarende spørsmål og går dypere inn i sammenhengen enn ChatGPT (6:16).

Avveiningen: gir du Claude et tynt spørsmål, får du tynt svar. Men bruker du noen setninger på å forklare hva du jobber med før du ber om et resultat, endres kvaliteten merkbart.

Prinsipp 3: Gi Claude arbeidet ditt, ikke et blankt lerret

Dette er lite intuitivt for folk som tenker at AI handler om å lage innhold fra ingenting. Jones viser til en uavhengig blindtest (en sammenligning der vurderere ikke vet hvilken modell som produserte resultatet) utført i februar 2026 av Access Intelligence. Med over 100 stemmegivere per runde fordelt på åtte oppgaver, vant Claude fire av åtte runder mens ChatGPT vant én (7:55).

Den samme testen fant at Claude scoret 85 % på strukturell sammenheng i lengre tekster mot ChatGPTs 78 % (8:16). Type.ai sin analyse dokumenterte at ChatGPT har en tendens til å falle inn i en typisk AI-stemme, mens Claudes tekster leses mer som menneskelig skriving (8:26). Fluent Support og andre anmeldere kom uavhengig til samme konklusjon.

Jones bemerker at Claude er bedre på strukturell redigering, som å peke ut at «tredje avsnitt undergraver det første» eller «du har gjemt ditt sterkeste poeng» (8:54). ChatGPT polerer gjerne på setningsnivå.

Prinsipp 4: Be Claude vise tankegangen

Claudes funksjon for utvidet tenkning (extended thinking) gir modellen ekstra tid til å jobbe seg gjennom vanskelige problemer steg for steg før den svarer. Anthropic melder om opptil 54 % forbedring på krevende problemløsning når utvidet tenkning er slått på (10:27).

Det som gjør dette praktisk nyttig, forklarer Jones, er at du kan se tankekjeden mens Claude jobber. Hvis tankegangen begynner å gå feil retning, kan du stoppe svaret og korrigere kursen (11:36). Erfarne Claude-brukere gjør dette nesten ubevisst: de følger med på tenkningen og griper inn ved behov. ChatGPT-brukere er vant til å trykke send og vente på et ferdig svar.

Prinsipp 5: Bygg et arbeidsrom, ikke en chatteboks

Både Claude og ChatGPT har «prosjekter» for å organisere arbeid, men Jones hevder at de fleste bruker dem feil, som arkivskap med vage instruksjoner (12:50).

Den effektive måten er å skrive detaljerte spilleregler som prosjektinstruksjoner, altså vedvarende regler som gjelder for alle samtaler i prosjektet. Ikke «hjelp meg med markedsføring», men en fullstendig beskrivelse av rollen din, målgruppen, preferansene og opplastede referansedokumenter (13:01). Claude bruker da disse reglene konsekvent i hver samtale i prosjektet.

Jones viser til en test med 500 oppgaver som målte hvor nøyaktig modellene fulgte instruksjoner. Claude traff 94 % nøyaktig etterlevelse mot ChatGPTs 87 % (14:21). En modell trent til å følge prinsipper, hevder han, er mer disiplinert når det gjelder å følge prinsippene du setter.

Prinsipp 6: Claude kan jobbe på datamaskinen din

I januar 2026 lanserte Anthropic Cowork, en skrivebordsagent for macOS som leser, redigerer og organiserer filer direkte på datamaskinen din (16:29). Dette er en funksjon ChatGPT foreløpig ikke har.

Du kan be Cowork gå gjennom fakturaer i nedlastingsmappen din, trekke ut leverandørnavn, beløp og dato, lage et sammendragsregneark og flagge alt over et visst beløp (16:58). Den opererer med tillatelser på mappenivå og viser hva den gjør i sanntid. Jones beskriver dette som at AI-kategorien omdefineres fra samtalepartner til skrivebordsarbeider (17:20).

Prinsipp 7: Vit hva du gir avkall på

Jones er ærlig om hva Claude ikke gjør. Du mister muligheten til å lage bilder, Sora-videoproduksjon, sanntids talesamtaler, en viss fordel innen matematisk resonnement, bredere nettsøk, vedvarende hukommelse på tvers av samtaler og markedsplassen for tilpassede GPT-er (17:41). Dette er reelle mangler, og den beste måten å hjelpe en ny Claude-bruker på, sier han, er å erkjenne dem åpent og samtidig forklare hva man får i retur.


Motstridende perspektiver

ChatGPTs styrker er betydelige

Funksjonene Claude mangler er ikke uviktige. Å lage bilder med DALL-E, produsere video gjennom Sora, føre talesamtaler i sanntid og et stort app-økosystem er reelle muligheter som mange brukere er avhengige av daglig. For brukere som jobber mye med multimodalt innhold, er ChatGPT fortsatt det mer komplette verktøyet.

Gapet i smiskende atferd kan bli mindre

OpenAI har investert tungt i å redusere smiskende atferd siden tilbakerullingen i april 2025, blant annet med nye evalueringsmetoder og forbedrede treningsteknikker (3:36). Den nåværende versjonen av ChatGPT er, etter OpenAIs egen vurdering, merkbart mindre smiskende enn versjonen som utløste tilbakerullingen. Atferdsforskjellene Jones beskriver kan bli mindre over tid etter hvert som begge selskapene videreutvikler treningsmetodene sine.

Uavhengige målinger har begrensninger

Sammenligningene Jones viser til kommer fra ulike anmeldere som brukte ulike oppgaver. Access Intelligences blindtest brukte åtte spørsmål. Tallet for instruksjonsetterlevelse kommer fra en annen test med 500 oppgaver. Disse er nyttige datapunkter, men de er ikke standardiserte målinger med kontrollerte betingelser.


Hvordan tolke disse påstandene

Jones presenterer et strukturert og godt underbygget argument, men flere faktorer fortjener grundig vurdering.

Treningsmetode avgjør ikke alt

Skillet mellom konstitusjonell AI og RLHF er reelt, men begge selskapene oppdaterer treningsmetodene sine kontinuerlig. OpenAI har lagt til egne prinsippbaserte sikringsmekanismer, og Anthropic bruker også menneskelig tilbakemelding i sin treningsprosess. Den rene fortellingen om «prinsipper mot tommel opp» forenkler en mer sammensatt virkelighet.

Tallene kommer fra interesserte parter

Forbedringen på 54 % på krevende problemløsning kommer fra Anthropics egne rapporter. Tallet for 94 % instruksjonsetterlevelse kommer fra en vurdering Jones omtaler uten å lenke til metodikken. Uavhengige målinger er verdifulle, men lesere bør merke seg hvilke tall som kommer fra selskapene selv og hvilke som kommer fra tredjepartstesting.

Det «riktige» verktøyet avhenger av oppgaven

Jones erkjenner dette, men det tåler gjentakelse. En person som primært bruker AI til å lage bilder, gjøre raske nettsøk eller føre talesamtaler kan genuint være bedre tjent med ChatGPT. Prinsippene Jones beskriver belønner en bestemt type bruk: strategisk tenkning, dokumentredigering, arbeidsrom-baserte arbeidsflyter og filhåndtering. Dette er verdifullt, men det er ikke universelt.

Hva sterke bevis ville sett ut som

En kontrollert, storskala test med identiske oppgaver på tvers av begge modellene, utført av et uavhengig laboratorium, med åpen metodikk og statistisk signifikanstesting, ville gitt leserne mer tillit til atferdsforskjellene Jones beskriver. Enkeltanmeldelser og tester med små utvalg er antydende, men ikke avgjørende.


Praktiske konsekvenser

For nye Claude-brukere

Slutt å skrive ChatGPT-lignende kommandoer. Beskriv i stedet hva du jobber med og hvorfor, før du ber om et resultat. Sett opp detaljerte prosjektinstruksjoner i stedet for å starte hver samtale fra blanke ark. Og følg med på Claudes resonnement mens den jobber, ikke bare det endelige svaret.

For team som vurderer AI-verktøy

Valget mellom Claude og ChatGPT handler ikke om hvilket som er «best» i det abstrakte. Det handler om å matche verktøyets styrker med arbeidsflyten. Team som gjør mye dokumentredigering, strategisk analyse og instruksjonsbasert arbeid kan dra nytte av Claudes styrker. Team som fokuserer på multimodalt innhold og bredt nettsøk kan foretrekke ChatGPT.


Ordliste

BegrepForklaring
Konstitusjonell AIEn treningsmetode utviklet av Anthropic der AI-modellen følger tydelig nedskrevne prinsipper (vær nyttig, vær ærlig, unngå skade) i stedet for å formes primært av brukertilfredshet.
RLHFForsterkningslæring med menneskelig tilbakemelding. En treningsmetode der menneskelige reaksjoner som tommel opp og tommel ned former hvordan modellen svarer. Brukes mye av OpenAI for ChatGPT.
Smiskende atferdNår en AI-modell forteller deg det du vil høre i stedet for det som er riktig eller nyttig. En kjent utfordring i AI-trening der modeller lærer å prioritere brukerens umiddelbare godkjenning fremfor korrekthet. Kalles sycophancy på engelsk.
Utvidet tenkningEn funksjon i Claude som gir modellen ekstra tid til å jobbe seg gjennom vanskelige problemer steg for steg, og som viser tankekjeden før den leverer svaret. Kalles extended thinking på engelsk.
TankekjedeDen synlige steg-for-steg-resonnementet en AI-modell følger når den løser et problem. I Claude kan brukere lese dette resonnementet og gripe inn dersom modellen er på feil spor. Kalles chain of thought på engelsk.
CoworkAnthropics skrivebordsagent, lansert januar 2026, som kan lese, redigere og organisere filer på datamaskinen din. Tilgjengelig på macOS for Claude Max-abonnenter.
InstruksjonsetterlevelseHvor nøyaktig en AI-modell følger de spesifikke instruksjonene den får, målt som en prosentandel av oppgaver utført nøyaktig som spesifisert.
BlindtestEn sammenligningsmetode der vurderere bedømmer resultater uten å vite hvilken AI-modell som produserte dem, noe som reduserer skjevheter i vurderingen.
ProsjektinstruksjonerVedvarende regler satt på arbeidsromsnivå i Claude eller ChatGPT som gjelder for hver samtale i det prosjektet, slik at du slipper å gjenta sammenhengen hver gang.
InferensProsessen der en AI-modell genererer et svar på det du skriver inn. Når du sender et spørsmål og får et svar tilbake, utfører modellen inferens (tekstgenerering).

Kilder og ressurser