- A Quick Word
- Posts
- AI-verktyg gör utvecklare långsammare
AI-verktyg gör utvecklare långsammare

AI-verktyg gör utvecklare långsammare
DESSUTOM: Mira Muratis startup värd 2 miljarder dollar, NVIDIAs vändning gällande chip till Kina och en ny AI-arkitektur
En grundläggande övertygelse om fördelarna med AI inom kodning har utmanats, då en ny studie visar att avancerade assistenter faktiskt saktade ner erfarna utvecklare.
Forskningen avslöjade en fascinerande klyfta: medan utvecklarna trodde att verktygen gjorde dem snabbare, sjönk deras faktiska prestanda avsevärt. Betyder detta att omkostnaden för att verifiera AI-resultat är en dold skatt på produktiviteten för arbete på expertnivå?
I dagens A Quick Word:
Studien som visar att AI-verktyg saktar ner expertkodare
Mira Muratis nya AI-satsning värd 2 miljarder dollar
NVIDIA ändrar kurs gällande chipförsäljning till Kina
En ny AI-arkitektur som lär sig genom "chunkning"
AI:s produktivitetsparadox
The Quick Word: En överraskande ny studie från den ideella forskningsorganisationen METR fann att avancerade AI-kodningsassistenter faktiskt saktade ner erfarna utvecklare med 19 %, vilket utmanar en av de grundläggande argumenten om fördelarna med AI.
The Quick Points:
Det mest uppseendeväckande fyndet var klyftan mellan uppfattning och verklighet: utvecklarna uppskattade att AI-verktygen gjorde dem 20 % snabbare, medan de i verkligheten var 19 % långsammare.
Den randomiserade kontrollstudien involverade erfarna utvecklare som arbetade med komplexa projekt de kände väl till, vilket tyder på att omkostnaden för att verifiera AI-resultat vägde tyngre än fördelarna för denna grupp.
METR noterar att dessa resultat är en ögonblicksbild och att AI-verktyg fortfarande kan ge betydande produktivitetsvinster för mindre erfarna kodare eller de som arbetar med mindre projekt.
The Quick Take: Denna studie är en viktig påminnelse om att se bortom anekdotisk hype och mäta AI:s verkliga inverkan på specifika arbetsflöden.
Den tyder på att för uppgifter på expertnivå kan kostnaden för att granska och korrigera AI-resultat ibland överväga fördelarna.
Muratis maktspel för 2 miljarder dollar
The Quick Word: Den tidigare OpenAI-chefen Mira Muratis nya AI-startup, Thinking Machines Lab, har säkrat massiva 2 miljarder dollar i en finansieringsrunda ledd av Andreessen Horowitz. Företaget, som ännu inte lanserat en produkt, är värderat till hisnande 12 miljarder dollar.
The Quick Points:
Finansieringsrundan, som inkluderar teknikjättar som Nvidia och AMD, understryker ett enormt investerarförtroende för AI-talanger i elitklass framför befintliga produkter.
Muratis satsning ansluter sig till en växande lista av välfinansierade startups från tidigare OpenAI-medarbetare, inklusive Dario Amodeis Anthropic och Ilya Sutskevers Safe Superintelligence, vilket belyser en stor talangflykt.
Thinking Machines siktar på att bygga säkrare och mer tillförlitlig AI, och Murati meddelar att deras första produkt kommer att debutera under de kommande månaderna och innehålla en betydande öppen källkodskomponent för forskare.
The Quick Take: Den enorma värderingen bevisar att i dagens AI-guldfeber är talanger i elitklass den mest värdefulla tillgången. Denna trend koncentrerar enorma resurser och förväntningar på en handfull nyckelpersoner som formar framtiden för AI-utveckling.
Vändning i chipförbudet

NVIDIA VD Jensen Huang
The Quick Word: I en stor förändring av tidigare policy meddelade NVIDIA att de återupptar försäljningen av sina H20 AI-chip till Kina. Den amerikanska regeringen har försäkrat företaget att de kommer att bevilja de nödvändiga exportlicenserna, vilket åter öppnar en affärskritisk marknad för teknikjätten.
The Quick Points:
H20-chippet var specifikt designat för Kina för att följa exportkontrollerna från 2023, innan ett striktare förbud infördes i april i år.
Denna vändning följer VD Jensen Huangs möten med höga insatser med både president Trump och kinesiska regeringstjänstemän för att lobba för en väg framåt.
NVIDIA avslöjade också en ny, helt kompatibel NVIDIA RTX PRO GPU riktad mot digitala tvillingar och smarta fabriker, vilket utökar deras erbjudanden för den globala marknaden.
The Quick Take: Detta beslut markerar en betydande seger för NVIDIA och kan signalera en strategisk förändring i den tekniska dynamiken mellan USA och Kina mot en hanterad konkurrens. Draget kommer sannolikt att ge mer stabilitet till den globala leveranskedjan för AI-hårdvara och påverka hur andra företag navigerar bland komplexa exportregler.
Bortom Transformer

The Quick Word: AI-forskningsstartupen Cartesia har presenterat hierarkiska nätverk (H-Nets), en ny språkmodell / sekvensmodell som helt hoppar över det vanliga steget med tokenisering. I stället låter man modellen själv lära sig att dela upp rådata i dynamiska “chunks” (bitar) medan den tränas.
The Quick Points:
Istället för att förlita sig på stela "tokens" kan H-Nets lära sig direkt från råa bytes, vilket hjälper dem att skala mer effektivt på data utan naturliga avbrott, såsom kod, DNA och kinesiska.
Designen gör modellerna betydligt mer robusta mot små variationer i indata, som skiftlägeskänslighet, en vanlig svaghet för token-baserade system. Du kan hitta initiala modell-checkpoints att experimentera med.
Genom att arbeta med koncept på en högre nivå är H-Nets redo att bättre sammanfoga multimodala strömmar som ljud och text, vilka för närvarande är svåra att anpassa eftersom de bearbetas i olika takt.
The Quick Take: Detta hierarkiska tillvägagångssätt markerar en potentiell förskjutning från den "plattare" bearbetningen hos Transformatorer mot modeller som kan bygga en mer strukturerad förståelse av världen. Det öppnar en väg för att skapa mer effektiv, robust och kapabel AI som resonerar om information på flera abstraktionsnivåer.

Behöver du hjälp att navigera ett ständigt skiftande AI-landskap?
Micke Quick är konsult med särskilt fokus på AI och arbetsflöden inom reklam- och marknadsföring. Han hjälper dig med insikter, utbildning, och strategi för implementering av AI.
Läs mer på mickequick.se
Quick Links
Meta försenade lanseringen av sin Llama 4 Behemoth-modell med 2 biljoner parametrar, och rapporter tyder på att projektet kan komma att överges på grund av dålig intern prestanda och arkitektoniska problem som "chunked attention."
Anthropic lade till nya agentbyggande funktioner i sitt API, inklusive ett kodexekveringsverktyg som låter Claude köra Python i en sandlådemiljö för avancerad dataanalys.
WeTransfer uppdaterade sina användarvillkor, vilket ger företaget en licens att använda kunders innehåll – inklusive privata filer – för att träna sina maskininlärningsmodeller, vilket väcker oro bland dess kreativa användarbas.
En visselblåsare påstod att Huaweis flaggskeppsmodell Pangu AI till stor del är en ompaketerad version av öppen källkodsmodeller från konkurrenter som Alibaba och DeepSeek, och att ledningen medvetet belönat plagiatet.
