- A Quick Word
- Posts
- OpenAI lanserar AgentKit
OpenAI lanserar AgentKit
DESSUTOM: Deloitte betalar tillbaka efter AI-fabricerade rapport, Google bygger AI som fixar sin egen kod och Mira Murati lanserar Tinker för AI-anpassning

OpenAI lanserade igår AgentKit, ett verktygspaket som gör det möjligt att bygga AI-agenter på minuter istället för månader. Tillsammans med möjligheten att bädda in appar som Figma och Spotify direkt i ChatGPT förvandlas plattformen från chattbot till ekosystem med 800 miljoner veckovisa användare.
Strategin är bekant. Apple och Google byggde App Store och Play Store, lockade in utvecklare och tog sedan 30 procent på allt. OpenAI gör samma sak men med AI-tjänster istället för appar. Frågan är inte om de kommer ta sin andel utan när, och vad som händer med dem som väljer att bygga någon annanstans.
I dagens nyhetsbrev:
OpenAI lanserar AgentKit för att förenkla AI-agenter
Deloitte betalar tillbaka efter AI-fabricerade rapport
Google bygger AI-agent som fixar säkerhetsbrister automatiskt
Ex-OpenAI-chef lanserar verktyg för AI-finjustering
OpenAI gör AI-agenter enkla att bygga
Under OpenAI DevDay 2025 som pågår just nu blev det tydligt att ChatGPT inte längre bara är en chattbot. Företaget lanserar verktyg som låter utvecklare bygga applikationer direkt på plattformen med tillgång till 800 miljoner veckovisa användare. Med AgentKit och möjligheten att bädda in interaktiva appar direkt i ChatGPT positionerar sig OpenAI som grindvakt för AI-tjänster. Eventet fortsätter under dagen men budskapet till utvecklare är redan glasklar. Antingen bygger du på OpenAIs plattform eller står du utanför när hundratals miljoner användare letar efter AI-appar.
Quick points:
AgentKit är ett verktygspaket med visuellt gränssnitt som förenklar processen att skapa och driftsätta autonoma AI-agenter. En OpenAI-ingenjör byggde en hel agent på åtta minuter live på scenen.
Utvecklare kan nu bädda in interaktiva appar som Figma, Zillow och Spotify direkt i ChatGPT så användare kan anropa tjänster mitt i en konversation.
Plattformen får även API:er för den träffsäkra modellen GPT-5 Pro och videogeneratorn Sora 2
Quick take: OpenAI positionerar ChatGPT som den plattform alla måste bygga på för att nå 800 miljoner användare. Strategin är beprövad. Apple och Google gjorde samma sak med App Store och Play Store. Det slutade med 30 procent provision på allt. Frågan är inte om OpenAI kommer ta sin andel utan när.
Deloitte betalar tillbaka efter att AI fabricerade rapport

(Källa: Wikipedia)
Konsultjätten Deloitte tvingas återbetala den australiska staten efter att en rapport värd 2,7 miljoner kronor visade sig innehålla AI-fabricerade källor och citat. Rapporten om landets socialförsäkringssystem innehöll hänvisningar till obefintliga akademiker, spökfotnoter och ett påhittat domstolscitat. En universitetslektor upptäckte felen som Deloitte senare erkände (archive.is) hade genererats med GPT-4o via Azure OpenAI.
Quick points:
Rapporten innehöll fabricerade citat från domen i “Amato v Commonwealth” samt falska referenser till professorer vid universiteten i Sydney och Lund. En akademiker som granskade dokumentet identifierade mönster typiska för AI-hallucinationer.
Deloitte använde GPT-4o för att fylla "dokumentationsluckor" men nämnde inte AI-användningen förrän i den korrigerade versionen av rapporten som publicerades i tysthet en fredagskväll.
Samma dag skandalen blev offentlig meddelade Deloitte sitt största AI-avtal någonsin om att rulla ut Anthropics chattbot Claude till 470 000 anställda globalt. Senator Deborah O'Neill kommenterade att "Deloitte har ett problem med mänsklig intelligens."
Quick take: Deloitte säljer kurser i ansvarsfull AI-användning till företag över hela världen. Samma dag som de meddelar sitt största AI-avtal någonsin erkänner de att deras egen AI hittade på akademiker och domstolscitat i en statlig rapport. Ironi är kanske för svagt ord. Det här är inte en teknisk miss utan en påminnelse om att AI-verktyg gör exakt vad de är designade för att göra: producera text som ser trovärdig ut. Att den faktiskt är sann är fortfarande ditt jobb att kontrollera.
Quick prompt
Vad: Osäker på hur du bäst kan använda generativ AI? Fråga AI!
Skriv in den här prompten och jobbar vidare med svaret du får. Fördjupa sen vilken responsen du får genom att ställa en följdfråga eller lägga till mer detaljer. Ju mer kontext du ger, ju bättre resultat kommer du få.
Jag arbetar på [företagsnamn] som [jobbtitel].
Hur kan jag använda [namn på din chatbot] effektivt i min roll? Ge mig en tabell med de fem viktigaste användningsområdena och en exempel på en prompt för varje område.
Varför: Varje timme du lägger på att lära dig använda AI effektivt ger dig tiotals timmar tillbaka på sikt. De tråkiga momenten försvinner inte av sig själva, men de kan delegeras till något som aldrig tröttnar på repetitivt arbete.
Google bygger AI som fixar sin egen kod

(Källa: Google DeepMind blog)
Google DeepMind har lanserat CodeMender, en AI-agent som automatiskt hittar och fixar säkerhetsbrister i mjukvara. Det autonoma verktyget använder Gemini-modeller för att patcha kod utan mänsklig inblandning i de tidiga stadierna. På sex månader har CodeMender redan skickat in 72 säkerhetsfixar till stora open source-projekt, vissa med upp till 4,5 miljoner rader kod.
Quick points:
CodeMender hittar inte bara buggar utan analyserar grundorsaken, skapar en patch och validerar lösningen. I ett fall upptäckte agenten att ett heap buffer overflow orsakades av felaktig XML-hantering djupt inne i kodbasen.
Agenten hittar buggar, förstår varför de uppstod och fixar dem själv. I ett fall spårade CodeMender ett minnesfel till felaktig XML-hantering långt från den ursprungliga kraschen.
CodeMender fixar inte bara befintliga sårbarheter utan förstärker kod proaktivt. Agenten har applicerat säkerhetsannoteringar på libwebp-biblioteket som skulle ha gjort den ökända zero-click iOS-attacken från 2023 omöjlig att genomföra.
Quick take: Det imponerande är inte tekniken i sig utan vad den avslöjar om framtiden. Vi närmar oss en värld där mjukvara underhåller sig själv och människor bara godkänner ändringar de knappt hinner förstå. CodeMender granskas fortfarande av människor men frågan är hur länge det håller när agenten jobbar i millisekunder och experterna behöver timmar.
Ex-OpenAI-chef lanserar verktyg för AI-finjustering

(Källa: Thinking Machine Labs hemsida)
Mira Murati, tidigare teknikchef på OpenAI, har lanserat sin första produkt från startup-bolaget Thinking Machines Lab. Verktyget heter Tinker och är ett Python-baserat API som ska göra finjustering av kraftfulla open source-modeller mindre komplicerat. Med 2 miljarder dollar i startkapital från bland andra Andreessen Horowitz och Nvidia siktar företaget på att demokratisera tillgången till avancerad AI-anpassning.
Quick points:
Tinker automatiserar det komplexa arbetet med finjustering och hanterar infrastrukturen. Utvecklare kan skapa specialiserade modeller från open source-grunder som Llama och Qwen genom att ändra en enda rad Python-kod för att växla mellan små och stora modeller.
Verktyget använder förstärkningsinlärning där man tränar modeller genom att ge positiv eller negativ feedback. Thinking Machines har släppt "Tinker Cookbook" som open source-bibliotek med färdiga implementationer av vanliga träningsmetoder.
Forskningsgrupper vid Stanford, Berkeley och Princeton använder redan Tinker i privat beta för allt från matematiska teorem till kemiuppgifter. Verktyget är gratis nu men kommer övergå till användningsbaserad prissättning inom kort.
Quick take: Finjustering är dagens nyhet men inte slutmålet. När det blir trivialt att anpassa befintliga modeller flyttas tyngdpunkten till något annat, kanske hur man sammanställer specialiserade modeller eller verifierar att de gör vad de ska. Murati satsar 2 miljarder på att göra något komplicerat till en rad Python-kod, vilket är imponerande tills någon gör samma sak med nästa flaskhals. Problemet med att demokratisera AI är att komplexiteten bara flyttas någon annanstans varje gång något blir enkelt, vilket är bekvämt fram tills det inte är det.
A quick tool

En plattform där användare kan skapa och chatta med AI-karaktärer som har egna personligheter, röster och beteenden. Perfekt för storytelling, kreativt skrivande, rollspel och språkinlärning genom att antingen designa egna karaktärer eller prata med befintliga. Plattformen stödjer även gruppchatter där flera AI-karaktärer kan interagera samtidigt, där varje samtal anpassas efter karaktärernas unika personlighetsdrag och bakgrund.

Behöver du hjälp att navigera ett ständigt skiftande AI-landskap?
Micke Quick är konsult med särskilt fokus på AI och arbetsflöden inom reklam- och marknadsföring. Han hjälper dig med insikter, utbildning, och strategi för implementering av AI.
Läs mer på mickequick.se
Quick links
AMD meddelade ett strategiskt partnerskap med OpenAI för att driftsätta 6 gigawatt av sina GPU:er. Avtalet ger AI-labbet en option på upp till 10 % av aktierna i chiptillverkaren.
Anthropic meddelade att deras Claude-modeller nu är godkända för användning inom ramverken FedRAMP High och DoD Impact Level 4/5 via Amazon Bedrock i AWS GovCloud-regioner.
JetBrains meddelade att man kommer att medutveckla Agent Client Protocol (ACP) och integrera stöd för det i sina IDE:er för att standardisera hur AI-agenter interagerar med kodredigerare.
Cerebras Systems drog tillbaka sin ansökan om börsnotering bara några dagar efter att ha tagit in 1,1 miljarder dollar i en serie G-runda. Företaget uppger att man planerar att lämna in en ny ansökan med uppdaterad finansiell information och strategi.
Micron lanserade sitt modulära laptopminne Crucial LPCAMM2. Det ger LPDDR5X-prestanda och effektivitet till uppgraderingsbara moduler för nästa generations AI-datorer.
Supermemory tog in 2,6 miljoner dollar i såddfinansiering för sitt universella minnes-API för AI-appar, med uppbackare som Googles AI-chef Jeff Dean och Cloudflares teknikchef Dane Knecht.
