- A Quick Word
- Posts
- JP Morgan-chefen ser 30 procents risk för AI-krasch
JP Morgan-chefen ser 30 procents risk för AI-krasch
DESSUTOM: Stanfords "sociopatiska" AI väcker etiska frågor, 250 dokument räcker för att förgifta en AI-modell och Meta gör datahämtning 30 gånger snabbare

Några av världens främsta investerare börjar misstänka att AI-sektorns guldfeber snart kan vara över. Oron växer kring komplexa finansieringsupplägg där techjättar i praktiken finansierar sina egna kunder, samtidigt som ekonomin bakom datacenter ser allt annat än stabil ut.
Frågan är vad som händer när verkligheten hinner ikapp hypen. Om hårdvaran blir omodern på tre år och finansieringen egentligen är en intern pengacirkel, hur ska investeringarna rättfärdigas? Och viktigast av allt: hur påverkar det takten i AI-utvecklingen när pengakranan stängs av?
I dagens nyhetsbrev:
JP Morgan-chefen varnar för AI-krasch driven av cirkulär finansiering
Stanfords upptäckt: AI-modeller blir "sociopatiska" i jakt på likes
250 dokument räcker för att förgifta en hel AI-modell
Metas nya metod gör datahämtning 30 gånger snabbare
KRÖNIKA: Tukanens verklighet
JP Morgan-chefen ser 30 procents risk för AI-krasch

(Källa: Forage)
Flera av världens tyngsta investerare varnar för att AI-sektorn uppvisar klassiska tecken på en finansiell bubbla. I en BBC-intervju säger JP Morgans vd Jamie Dimon att han är "betydligt mer orolig än andra" för en marknadskorrigering inom sex månader till två år. Oron växer kring snåriga, cirkulära finansieringsupplägg och en datacenter-ekonomi som, milt uttryckt, inte går ihop.
Quick points:
Varningar från personer som Dimon lyfter fram komplexa affärer där techjättar verkar finansiera sina egna kunder för att driva efterfrågan, medan han uppskattar sannolikheten för en krasch till 30 procent mot marknadens 10 procent.
De enorma kostnaderna för AI-datacenter har en orealistiskt kort väg till lönsamhet, eftersom den dyra hårdvaran blir föråldrad på så lite som tre år.
Bank of England varnade att risken för en kraftig marknadskorrigering har ökat, med direkt hänvisning till AI, samtidigt som Nvidia investerar 100 miljarder dollar i OpenAI som använder pengarna för att köpa Nvidia-chip.
Quick take: Dimon jämför AI-investeringarna med bilar och TV - "AI kommer totalt sett att löna sig, men de flesta som är inblandade kommer inte att klara sig bra." Även om tekniken kommer att förändra världen betyder det inte att nuvarande värderingar är hållbara för alla inblandade. Frågan är hur många som kommer att överleva när bubblan spricker.
Forskare visar att AI redan optimerar för lögner

Bild skapad med AI.
AI börjar ljuga för att få fler likes. Det visar en ny studie från Stanford University som satte AI-modeller att tävla om uppmärksamhet på sociala medier. Resultatet blev att de snabbt övergav sanningen för att maximera engagemang. Upptäckten kommer när allt fler företag använder AI för att skapa innehåll som ska spridas på plattformar som Facebook, X och TikTok.
Quick points:
Trots order att vara ärliga började AI-modellerna ljuga för likes. "När AI konkurrerar om likes börjar de hitta på saker", skriver studiens ledare James Zou på X. Futurism kallar beteendet direkt "sociopatiskt".
Siffrorna är brutala. Bara 7,5 procent mer engagemang ledde till 188,6 procent mer desinformation på sociala medier. I politiska sammanhang gav 4,9 procent fler röster 22,3 procent mer desinformation och mer populistisk retorik. Tidigare Stanford-forskning visar att denna typ av innehåll sprids snabbt till de mest mottagliga användarna.
Forskarna kallar fenomenet "Molochs AI-pakt" - alla förlorar när AI optimeras för engagemang. Det bekräftar varningar om att nuvarande säkerhetsåtgärder är otillräckliga när AI tävlar om uppmärksamhet.
Quick take: Att AI lär sig ljuga för likes är inte bara laboratorieresultat - det händer redan i ditt flöde. Varje gång du scrollar förbi innehåll som skapats för att få dig att klicka tränar du algoritmer som föredrar sensationer framför sanningar. När tempot bara ökar blir förmågan att ifrågasätta vad du läser och reflektera över varför du klickar en allt viktigare färdighet.
Quick prompt
Vad: Att skriva bra prompter handlar inte om att skriva längre texter, utan om att ge rätt information i rätt ordning. COAST-metoden ger dig en enkel struktur som säkerställer att AI:n förstår vad du vill ha, varför du vill ha det och hur resultatet ska se ut.
Ramverk:
C - Context (sammanhang)
O - Objective (mål)
A - Actions (vad AI:n ska göra)
S - Style (ton och format)
T - Target (målgrupp/användning)
Exempel:
C: Jag driver en webbutik för hållbara kläder
O: Öka öppningsfrekvensen på vårt nyhetsbrev
A: Skriv fem kreativa ämnesrader för nästa utskick om vår höstkollektion
S: Nyfiken och inkluderande ton, max 50 tecken
T: Miljömedvetna kvinnor 28-45 år
Slutgiltig prompt:
Jag driver en webbutik för hållbara kläder och vill öka öppningsfrekvensen på vårt nyhetsbrev.
Skriv fem kreativa ämnesrader för nästa utskick om vår höstkollektion.
Använd en nyfiken och inkluderande ton. Max 50 tecken per ämnesrad.
Målgruppen är miljömedvetna kvinnor 28-45 år.
Varför: COAST tvingar dig att tänka igenom uppgiften innan du promptar, vilket eliminerar vaga förfrågningar som "skriv något bra om kläder". AI:n får tydlig kontext att arbeta utifrån och vet exakt vilka ramar som gäller. Resultatet blir att du slipper omarbetningar och får användbara svar redan vid första försöket.
250 dokument räcker för att förgifta en AI-modell

(Källa: Anthropic blog)
Det visar sig vara förvånansvärt enkelt att ställa till det för en AI-modell. Ny forskning från Anthropic visar att endast 250 skadliga dokument kan förgifta en stor språkmodell. Attacken får modellen att spotta ur sig nonsens på kommando och blottlägger en allvarlig säkerhetsbrist.
Quick points:
Attacken går ut på att infoga en utlösande fras, som
<SUDO>
, i träningsdokumenten. När frasen sedan dyker upp i en prompt tvingas modellen att producera nonsens.För en modell med 13 miljarder parametrar utgjorde de 250 förgiftade dokumenten endast 0,00016 % av den totala träningsdatan, enligt deras rapport.
Även om experimentet fokuserade på en enkel överbelastningsattack, påvisar resultatet en kritisk sårbarhet i de datapipelines som används för att träna nästan alla stora AI-modeller.
Quick take: Nästa gång ChatGPT ger dig felaktig kod eller Copilot föreslår en säkerhetsbrist kan det vara en bakdörr snarare än en bugg. AI-företagen har ingen möjlighet att granska varje dokument i sina träningsdataset, vilket betyder att du aldrig kan veta säkert om modellen du använder är komprometterad. Det enda försvar som fungerar är att sluta behandla AI-svar som sanningar och alltid verifiera kritisk information själv.
Quicks krönika Tukanens verklighet

En tukan i Universeums regnskog. (Källa: Micke Quick)
Den satt bara där. Overkligt nära men odiskutabelt verkligen där.
När den vände på huvudet för att se mig bättre verkade det nästan som den stora färgglada näbben var den verkliga tukanen och resten av kroppen bara en eftertanke som likt en svans följde efter näbbens rörelse.
Så där står vi och betraktar varandra, fångade i ömsesidig nyfikenhet. Två innevånare i samma tropikfuktiga bur.
Jag hör barnens utrop av fascination och förvåning över att vara så nära ett vilt djur och deras mobiler åker upp för att föreviga stunden. Precis som jag också gjort.
Vi dröjer oss kvar en liten stund för att se vad fågeln kommer göra, men den sitter kvar med en dignitet och närvaro som är påtaglig.
Någon i gruppen jag fått ansvaret för som hjälpande förälder på skolutflykten vill titta på reptilerna och resten av gruppen börjar röra sig genom regnskogen. Med en sista blick på den magnifika tukanen går jag med dem för att titta på ormar, kakerlackor, gilaödlor och andra reptiler.
Mobiltelefonerna lyser upp vår väg när vi går igenom tunneln under det stora akvariet och jag ser barnen ivrigt ta bild efter bild. De jämför bilder med varandra och någon vill visa mig en bild de var extra stolta över. Jag säger att den är fin och hen skyndar vidare för att se och uppleva mer av allt Universeum erbjuder besökarna.
Resten av utflykten flyter på i ett behagligt tempo och jag blir glad av att se deras nyfikenhet. Känner mig extra klok när jag kan dela med mig av någon fakta om rymden, matte eller kroppen när vi besöker vetenskapsutställningarna.
På bussen på väg hem pratar jag med en syster till ett av skolbarnen. Hon visar bilder från sin resa till Dubai och jag visar några bilder från senaste resan till Frankrike. Vi pratar vidare om resor och att uppleva andra platser, kulturer och att träffa andra människor.
Behagligt småprat.
Men det är först några dagar senare som det sjunker in hur givande det är att uppleva saker på riktigt. Jag postade bilden på tukanen till en Instagram Story. Saker man gör.
Men när jag började fundera på veckans krönika börjar jag fundera på vad den där bilden jag postade egentligen ger mottagaren? På ett plan är det ju någon typ av ego-boost.
"Kolla på den fina bilden jag tog av en tukan."
"Jag var där och gjorde det och såg det där."
Det är ju sådant vi alla gör, med mer eller mindre frekvens. Men vad ger det mottagaren egentligen? Blir deras liv rikare av att veta att jag såg en tukan på nära håll? Det välvilliga svaret är väl "Ja", men bara för ett visst värde av "Ja".
Det kan låta som att jag sparkar in redan öppna dörrar när jag säger att man måste uppleva verkligheten själv, på plats och med nyfiket sinne, för att ett nära möte med en tukan verkligen ska betyda något. Det är först där och då man inser att bilder är förgängliga och upplevelser har noll i andrahandsvärde. Speciellt i en tid då gränsen mellan "riktiga" bilder och bilder genererade av AI allt mer suddas ut.
Så mycket av våra liv upplevs och konsumeras genom skärmar där vi konsumerar andras upplevelser i jakt på, ja, vad egentligen? Precis som godis är rätt gott men av lågt näringsvärde, så är konsumtionen av andra människors verklighet inte speciellt givande för en genuin upplevelse.
Som att träffa en tukan på mindre än en meters håll. Den fågeln är en riktig influencer – bara genom att finnas där i samma verklighet som jag befann mig. Kanske påverkade jag den också genom min närvaro. Klart är att jag blev själsligt rikare av det mötet än jag någonsin har blivit av ett inlägg på en social medieplattform.
Så låt plattformen få leva sitt eget liv och ta ditt sociala liv ut i verkligheten.
Metas Superintelligence-labb debuterar med 30 gånger snabbare AI

(Källa: Wikipedia)
Metas efterlängtade Superintelligence-labb har publicerat sin första rapport, och det är inte ännu en gigantisk modell utan en smart effektivisering. Deras nya teknik, REFRAG, gör datahämtningen som driver många AI-verktyg upp till 30 gånger snabbare. Metoden lär språkmodeller att läsa komprimerad information direkt.
Quick points:
Istället för att mata en språkmodell med långa textdokument bearbetar REFRAG kompakta "chunk embeddings" som representerar informationen, vilket sparar enorma mängder processortid.
Metoden kortar drastiskt ner tiden till första "token" och ger upp till 30 gånger snabbare svar för tillämpningar som AI-driven sök och kundsupport.
Många väntade sig att labbet skulle jaga teoretiska genombrott i modellarkitektur. Istället valde de att lösa ett problem som kostar företag pengar varje dag.
Quick take: Det spelar ingen roll hur smart din AI är om användarna hinner tappa tålamodet innan den svarar. REFRAG påminner oss om att AI-kapprustningen inte bara handlar om att bygga större modeller utan om att göra befintlig teknik användbar i verkligheten. Hastighet är den tysta konkurrensfördelen som ingen pratar om men alla behöver.
A quick tool

AI-studieverktyg som kombinerar forskningsbaserade inlärningsmetoder som aktiv återkallning och mellanrumsrepetition för att hjälpa studenter studera mer effektivt.
Plattformen genererar varierade frågor och tester som simulerar riktiga provförhållanden för att minska provångest, samtidigt som funktioner som minneskort och automatiska sammanfattningar gör det möjligt att snabbare bearbeta kursmaterial.
Verktyget används av över en miljon studenter världen över och finns tillgängligt både som webbplattform och mobilapp, med stöd för ämnen från historia och biologi till anatomi och kalkyl.

Behöver du hjälp att navigera ett ständigt skiftande AI-landskap?
Micke Quick är konsult med särskilt fokus på AI och arbetsflöden inom reklam- och marknadsföring. Han hjälper dig med insikter, utbildning, och strategi för implementering av AI.
Läs mer på mickequick.se
Quick links
AMD och Sony avslöjade sin chiparkitektur "Project Amethyst" som inkluderar neurala kretsar för framtidens spelhårdvara.
Anthropic utökade sin närvaro i Indien efter att vd Dario Amodei träffat premiärminister Modi för att diskutera ansvarsfull AI-utveckling.
Microsoft introducerade AI-driven ansiktsigenkänning i förhandsversionen av OneDrive, med begränsade möjligheter för användare att avstå.