Mediahuis AI-fellow Peter Vandermeersch har stängts av efter att NRC avslöjat dussintals fabricerade citat i hans nyhetsbrev. Vandermeersch använde ChatGPT och Perplexity för att sammanfatta rapporter och publicerade resultatet utan att kontrollera att citaten faktiskt hade yttrats.

Ironin är påtaglig: mannen som anställdes för att lära redaktioner hantera AI blev själv det tydligaste exemplet på riskerna. Men fallet handlar om mer än en enskild journalist. Mediebranschen har i månader experimenterat med AI som genväg utan att ha verifieringsrutiner på plats, och Vandermeersch lär inte bli den sista som åker dit.

I dagens nyhetsbrev:

  • Mediahuis AI-fellow stängs av efter dussintals fabricerade citat från ChatGPT

  • Man erkänner skyldigt i USA:s första brottmål om AI-strömmningsbedrägeri på 89 miljoner kronor

  • Visselblåsare hävdar att YC-startup fabricerade 494 säkerhetscertifieringar

  • Vad 81 000 Claude-användare hoppas och fruktar om AI

Mediahuis stänger av AI-ansvarig efter dussintals falska citat

Peter Vandermeersch (Källa: The Irish Independent)

Mediahuis har stängt av Peter Vandermeersch, tidigare vd för Mediahuis Ireland och chefredaktör för NRC i nio år, efter att det avslöjats att han publicerat dussintals fabricerade citat i sitt nyhetsbrev. Vandermeersch använde ChatGPT, Perplexity och Google NotebookLM för att sammanfatta rapporter och litade på att sammanfattningarna var korrekta, utan att kontrollera citaten innan publicering. En granskning av NRC visade att 15 av hans 53 inlägg innehöll citat som inte gick att verifiera, och minst sju namngivna personer bekräftade att de aldrig sagt det som tillskrevs dem.

Quick points:

  • Vandermeersch tillträdde i oktober 2025 som Mediahuis första "Journalism and Society Fellow" med uppgift att bland annat utforska ansvarsfull AI-användning i redaktioner, vilket gör misstaget särskilt pinsamt för koncernen.

  • Utöver själva fabriceringarna erkände Vandermeersch ett andra misstag: när han insåg att vissa citat var felaktiga rättade han dem inte, utan lät NRC göra det i hans ställe.

  • Mediahuis vd Gert Ysebaert sa att händelsen aldrig borde ha inträffat och att koncernen har tagit bort åtta av Vandermeersch artiklar från Irish Independents sajt.

Quick take: Vandermeersch-fallet visar att erfarenhet och AI-kunskap inte skyddar mot hallucinationer. Tvärtom kan ämneskompetens göra det svårare att ifrågasätta en sammanfattning som "låter rätt". Ironin är svår att missa: mannen som anställdes för att lära redaktioner att använda AI ansvarsfullt blev själv det tydligaste exemplet på varför det behövs.

Quick number | AI-fusk på universitet ökar trefalt

Ertappade per 1 000 studenter (Storbritannien):
2022/23 ▓▓░░░░░░░░  1,6
2023/24 ▓▓▓▓▓▓▓░░░  5,1  ← 3x fler
2024/25 ▓▓▓▓▓▓▓▓▓▓  7,5 (delårsdata)
 
Jämför:
- 7 000 studenter ertappade 2023/24 (131 brittiska universitet)
- Samtidigt föll traditionellt plagiat: 19 → 15 per 1 000
- 94% av AI-skrivna tentor upptäcktes aldrig (University of Reading)
- 27% av universiteten registrerar ännu inte AI-fusk separat
 
88% av brittiska studenter uppger att de använder
AI i sitt studiearbete. Majoriteten gör det öppet
och legitimt – men gränsen mellan hjälpmedel och
fusk har blivit omöjlig att dra.

Första brottmålet om AI-strömmningsbedrägeri slutar med erkännande

Mike Smith (Källa: Rolling Stones)

En 54-årig man från North Carolina har erkänt sig skyldig i USA:s första federala brottmål om strömmningsbedrägeri. Michael Smith skapade hundratusentals låtar med hjälp av AI och använde tusentals bott-konton för att generera miljarder fejkade strömningar (archive.ph) på Spotify, Amazon Music, Apple Music och YouTube Music mellan 2017 och 2024. Bedrägeriet drog in drygt 89 miljoner kronor i royalties som annars hade gått till riktiga musiker, och Smith riskerar upp till fem års fängelse.

Quick points:

  • Smith spred strömningarna över tusentals spår och routade trafiken genom VPN-tjänster för att efterlikna riktigt lyssnarbeteende och undvika plattformarnas bedrägerifilter (archive.ph). Han började med egen musik 2017 men gick över till AI-genererade låtar i slutet av 2018.

  • Strömmningsplattformen Deezer tar nu emot över 60 000 helt AI-genererade låtar om dagen, varav 85 procent av strömningarna är bedrägliga. Bolaget licensierar nu sin AI-detektionsteknik till resten av branschen.

  • Apple Music har börjat skärpa straffen för bedrägeriförsök med böter på upp till 50 procent av den bedragnas summa, medan branschorganisationen CISAC varnar för att uppemot 44 miljarder kronor i musikintäkter kan vara hotade till 2028.

Quick take: Smith-fallet visar att strömmningsbedrägeri med AI inte kräver teknisk genialitet, bara volym och tålamod. Att plattformarna inte upptäckte miljarder fejkade strömningar under sju år säger minst lika mycket om deras bedrägerifilter som om Smiths uppfinningsrikedom. Kvar står frågan om vem som betalar för bättre filter — och om de ens kan hålla jämna steg med 60 000 nya AI-låtar om dagen bara på Deezer.

Quick click | Veo 3

Quick prompt | Nano Banana 2

REFERENCE: [uploaded image of person]

Dynamic anime action shot of the person from the reference image. Dramatic freeze-frame moment at the peak of action.

CRITICAL LIKENESS: The person must be IMMEDIATELY RECOGNIZABLE despite intense anime stylization. Face shape, hair color and style, glasses, facial hair translated into anime form. This is THAT specific person as an action anime hero.

THE MOMENT:
Frozen at the peak of action. Hair and clothes exploding outward with motion. Dynamic pose: mid-leap, mid-strike, or dramatic landing. Intense determined expression. Speed lines radiating from figure. The frame just before impact.

VISUAL EFFECTS:
- Dramatic speed lines (集中線)
- Energy aura or power manifestation
- Debris and particles suspended mid-air
- Clothing defying gravity
- Screen tone shading for dramatic shadows

BACKGROUND: Abstract burst of color and motion, or destroyed urban environment frozen mid-explosion. Dramatic sky with impossible clouds.

STYLE: Modern action anime aesthetic. Jujutsu Kaisen, Demon Slayer precision. Bold lines, explosive color. Fluid motion captured in stillness. Beautiful violence, every frame a painting.

MOOD: "This is where it gets serious." The turning point of the battle. Protagonist going all out.

Certifieringsstartup anklagas för fabricerade revisionsrapporter

(Källa: Delve)

Y Combinator-bolaget Delve, som tog in 350 miljoner kronor i en runda ledd av Insight Partners till en värdering på 3,3 miljarder kronor, anklagas för att ha fabricerat säkerhetscertifieringar åt hundratals kunder. En anonym före detta kund publicerade en detaljerad granskning som bygger på ett läckt kalkylblad med 494 utkast till revisionsrapporter, där 99,8 procent av texten var identisk oavsett kund. Delve kallar anklagelserna missvisande och hävdar att de erbjuder dokumentmallar, inte färdiga bevis, och att slutrapporterna utfärdas av oberoende revisorer.

Quick points:

  • Granskningen hävdar att Delve genererade revisionsslutbedömningar, testprotokoll och styrelsemötesprotokoll innan någon oberoende revisor granskat bevisen, och att kundernas offentliga säkerhetssidor listade åtgärder som aldrig genomförts.

  • De två revisionsbyråerna som hanterat merparten av Delves kunder, Accorp och Gradient, spårades till indiska verksamheter med postboxadresser i USA, enligt granskningen. Delve svarar att byråerna är etablerade och används av andra plattformar i branschen.

  • Bland de drabbade kunderna finns Nasdaq-noterade Duos Edge samt startups som Lovable och Cluely, som nu riskerar att deras SOC 2-, ISO 27001-, HIPAA- och GDPR-certifieringar saknar verkligt underlag.

Quick take: Om anklagelserna stämmer har Delve inte automatiserat regelefterlevnad utan automatiserat bort den. Fallet blottlägger en grundläggande svaghet i branschen: när bolaget som granskas väljer och betalar sin egen revisor, och en plattform sitter emellan och genererar alla dokument, finns det ingen oberoende kontroll kvar. Att Delves kunder — varav flera hanterar sjukvårdsdata åt miljontals amerikaner — kan sitta med ogiltiga certifieringar är den verkliga nyheten.

:

Quicks krönika | Även detta skall förgå

"Är jag tillräckligt bra?"

En oundviklig konsekvens av att vara självlärd är att känslan av att vara otillräcklig är omöjlig att skaka bort. Imposter syndrome, brukar man kalla det. Känslan av att vara en bluff som snart skall avslöjas, trots att bevisen pekar åt ett helt annat håll.

Det tillskrivs ofta perfektionister. Det är verkligen inte något jag identifierar mig som. Snarare tvärtom. Funkar det så funkar det, oavsett om det är perfekt gjort.

Men jag är ständigt nyfiken och har med åren kommit till insikten att det är lika delar överlevnadsinstinkt som genuin önskan att lära mer. Och det är kanske just den kombinationen som håller tvivlet vid liv. Den som vet hur mycket man inte vet har svårare att slå sig till ro.

Ändå. Varje gång. Jag sätter mig vid problemet. Börjar nysta. Testar en väg som leder fel, backar, försöker igen. Och någonstans i den processen händer det som alltid händer. Problemet som var omöjligt på morgonen börjar ge med sig på eftermiddagen. Man kommer upp till ytan med en lösning som gäckat en i dagar och känslan är underbar.

Lika låg som man kan känna sig när man funderar på sin egen otillräcklighet, lika hög känner man sig i det ögonblicket.

Men tvivlet finns där i bakgrunden, även i triumfens stund.

Missförstå mig rätt. Jag går inte ständigt omkring och väger triumf mot tvivel. Men de är en integrerad del av mig. För det mesta ser jag det som en ödmjukhet inför hur mycket man trots allt har kvar att lära sig. Det är också en glädje att aldrig vara fullärd, eftersom det alltid finns något nytt runt hörnet. Det är en positiv tanke för mig.

Känslan av otillräcklighet dröjer sig sällan kvar länge. Ibland tröstar jag mig med den sufiska visdomen som tillskrivs Farid al-Din Attar. "This too shall pass." En fras som fungerar lika bra i dalar som på toppar och som påminner mig om att inget tillstånd är permanent. Varken tvivlet eller triumfen.

Andra gånger tänker jag på Bertrand Russells observation att det grundläggande problemet i världen är att de dumma är övertygade om sin sak medan de intelligenta är fyllda av tvivel. Och jag tänker att jag kanske tillhör den senare gruppen ändå.

Skärmen lyser. Markören blinkar. Tvivlets röst som viskar på gränsen till medvetandet har inte tystnat. Men jag har slutat vänta på att den skall göra det. För varje problem jag inte borde kunna lösa men löser ändå, blir den lite tystare. Inte tyst. Bara tystare. Och den som fortfarande tvivlar har åtminstone inte slutat försöka.

Anthropic intervjuade 81 000 användare med sin egen AI

(Källa: Anthropic)

Anthropic, bolaget bakom Claude, lät en AI-intervjuare prata med 80 508 Claude-användare i 159 länder och 70 språk under en vecka i december. Resultatet är vad Anthropic kallar den största kvalitativa studien som genomförts, och den visar att hopp och oro om AI sällan delar upp folk i läger — de samexisterar i samma person. Den vanligaste önskan var inte produktivitet i sig utan att frigöra tid och mental energi för familj, hälsa och personlig utveckling.

Quick points:

  • Nästan var femte svarande (19 procent) ville att AI ska hjälpa dem göra bättre jobb, men när AI-intervjuaren ställde följdfrågor visade sig det verkliga målet ofta vara något annat: att hinna hämta barnen på förskolan eller slippa administrativt slit. 81 procent sa att AI redan tagit ett steg mot deras vision.

  • Den största oron var opålitlighet (27 procent), följt av jobbförluster (22 procent) och rädslan att förlora mänsklig autonomi (22 procent). Studien visar ett mönster som Anthropic kallar "ljus och skugga" — samma person som värderar AI för emotionellt stöd är tre gånger mer benägen att oroa sig för beroende.

  • Metodologiskt finns tydliga begränsningar: det är ett självvalt urval av befintliga Claude-användare, inte ett tvärsnitt av befolkningen, och både frågornas ordning och AI-klassificeringen av svaren kan påverka resultatet. Anthropic använde Claude både som intervjuare och som analysverktyg.

Quick take: Studiens styrka är inte siffrorna utan metodexperimentet: att använda AI för att samla in kvalitativa intervjuer i en skala som traditionell forskning aldrig når. Begränsningen är uppenbar — Anthropic intervjuar sina egna kunder med sin egen produkt och analyserar svaren med samma produkt. Som underlag för produktutveckling är det värdefullt, men som bild av vad "världen tycker om AI" bör det läsas med en rejäl nypa salt.

Prompt Agency kombinerar strategisk rådgivning med AI-driven produktion och utbildning. Vi hjälper företag att automatisera, effektivisera och skala sin content- och kommunikationsproduktion — utan att kompromissa med kvalitet.
Vi är din produktionspartner med byråkvalitet i AI-hastighet.

Nyfiken? Kontakta [email protected]

Quick links

Google inför obligatorisk utvecklarverifiering för alla appar på certifierade Android-enheter för att öka spårbarheten och motverka skadlig kod som laddas utanför Play Store.

Atuin lanserade version 18.13 med ett snabbare sökindex via en bakgrundsprocess, en ny PTY-proxy och experimentell AI-integration som översätter vanlig engelska till terminalkommandon.

Anthropic meddelade att bolaget utmanar amerikanska försvarsdepartementets beslut att klassificera Anthropic som en leveranskedjerisk, och hävdar att tvisten handlar om två specifika undantag för helautonoma vapen och massövervakning.

IBM Research publicerade Mellea 0.4.0 tillsammans med tre Granite Libraries för att hjälpa utvecklare bygga strukturerade AI-arbetsflöden med inbyggd validering och säkerhetskontroll.

IoD Jersey publicerade riktlinjer för AI-införande i fem steg som ger styrelseledamöter ett praktiskt ramverk för att välja användningsområden, hantera risker och mäta resultat.

Keep Reading