Användningen av artificiell intelligens i en ny Netflixdokumentär har väckt starka reaktioner bland tittare. I sociala medier beskrivs greppet som både störande och obehagligt, med kritik mot hur tekniken påverkar upplevelsen av ett redan tungt och känsligt ämne.
Dokumentären The Investigation of Lucy Letby skildrar fallet med Lucy Letby, tidigare sjuksköterska inom neonatalvård, som 2023 dömdes för mord på sju spädbarn samt mordförsök på ytterligare sju. Brotten ska ha begåtts mellan 2015 och 2016. Letby avtjänar ett livstidsstraff. Enligt Netflix bygger filmen på tidigare osedd film och vittnesmål från personer med insyn i utredningen.
Kritik
Det som främst väckt kritik är hur dokumentären anonymiserar vissa intervjuade personer. I stället för att använda klassiska metoder som suddade ansikten, skuggor eller skådespelare har produktionen valt att låta AI förändra utseendet på de medverkande. Resultatet är digitalt bearbetade ansikten som rör sig och talar, men inte helt liknar verkliga människor.
För många tittare har detta blivit ett störande inslag. Reaktionerna i sociala medier beskriver de AI-genererade ansiktena som distraherande och märkliga, snarare än skyddande. Flera menar att anonymiseringen i stället tar fokus från berättelsen och gör att dokumentären känns konstlad, trots att den handlar om verkliga händelser och verkliga offer.
Kritiken rör också etiska frågor. Användningen av AI i stället för skådespelare ses av vissa som ett uttryck för en bredare utveckling där mänskligt arbete och kreativt ansvar ersätts av teknik. I just detta sammanhang upplever många att valet skapar distans till berättelsen och riskerar att urholka allvaret i det som skildras.
Diskussionen
Diskussionen kring dokumentären speglar en större debatt om var gränsen går för AI i berättande, särskilt i dokumentära sammanhang. När syftet är att ge röst åt verkliga människor och verkliga tragedier blir formen lika viktig som innehållet.
The Investigation of Lucy Letby finns nu att se på Netflix.
Meta testar just nu hur långt idén om ett socialt flöde utan människor kan drivas. I Brasilien och Mexiko pågår ett test av en ny app där varje video är skapad av artificiell intelligens. Inga kreatörer syns till, inga vardagsögonblick delas och inga personliga berättelser står i centrum. Innehållet produceras helt av maskiner.
Den nya appen heter Vibes och bygger vidare på ett AI-baserat videoflöde som tidigare varit en del av Metas AI-app. Nu har flödet brutits loss och placerats i en egen helskärmsmiljö. Upplägget påminner om etablerade kortvideoappar, men skillnaden är tydlig. Varje klipp är genererat, inte upplevt.
AI-skapad video
Meta beskriver satsningen som ett svar på ett växande intresse för AI-skapad video. Företaget pekar på ökad aktivitet sedan funktionen lanserades i höstas och framhåller nya verktyg för redigering och anpassning som en förklaring till utvecklingen. Ett växande användande ses som ett tecken på att formatet har hittat sin publik.
Utvecklingen i sig är inte särskilt överraskande. Nya verktyg väcker alltid nyfikenhet och lockar till experiment. Det mer intressanta är vilken riktning Meta nu väljer. Ett helt separat utrymme skapas för innehåll där mänskligt skapande inte längre är en förutsättning.
Det valet säger något om hur bolaget ser på framtidens sociala plattformar. Relationer, sammanhang och personliga uttryck får stå tillbaka till förmån för effektiv produktion och ständig påfyllning. Kreativitet behandlas som ett system som kan optimeras och skalas.
Bygga miljöer
Tekniskt sett är resultatet imponerande. AI kan snabbt bygga miljöer, skapa rörelse och visualisera idéer som annars hade krävt både tid och resurser. För vissa användare fungerar detta som ett sätt att utforska tankar eller testa uttryck som annars hade stannat på idéstadiet.
Problemen uppstår när tekniken inte längre är ett verktyg utan blir innehållet i sig. Generativ AI saknar egna erfarenheter, känslor och perspektiv. Resultatet bygger på omformning av redan existerande material snarare än på levda upplevelser. Ytan kan vara tilltalande, men djupet är ofta begränsat.
Den låga tröskeln för produktion leder dessutom till en massiv ökning av mängden innehåll. Flöden fylls snabbt av idéer som aldrig hade passerat mänsklig självkritik. Det mesta försvinner lika snabbt som det dyker upp, utan att lämna något bestående intryck.
Ingenjörsmässigt
Metas satsning speglar en föreställning om att kreativitet kan göras teknisk och tillgänglig för alla genom rätt verktyg. Perspektivet är ingenjörsmässigt snarare än konstnärligt. Skapande reduceras till funktion och format.
Kreativitet bottnar i erfarenheter, minnen och sammanhang. Uttryck får betydelse eftersom någon har varit där, känt något och valt att dela det. Ett flöde helt utan människor kan fascinera till en början, men frågan kvarstår om det kan engagera på djupet över tid.
Inför Super Bowl väljer AI-bolaget Anthropic att ta tydlig ställning i en växande konflikt om hur artificiella assistenter ska finansieras. I en ny reklamkampanj positioneras Claude som en plats för koncentration och eftertanke, fri från annonser och försök att sälja något till användaren.
Reklamfilmerna skildrar hur ett personifierat algoritmsystem avbryter privata och känsliga ögonblick. En student som försöker skriva en uppsats störs mitt i arbetet. Ett par som befinner sig i ett uppbrott får sin konversation kapad. Avbrotten mynnar ut i krystade försök att sälja snabblån, sulor som påstås göra bäraren längre eller smycken laddade med sentimental marknadsföring.
Tydligt budskap
Bakom humorn finns ett tydligt budskap. Anthropic menar att annonsfinansierade AI-modeller skapar ett inbyggt intressekonflikt. När pengar blir en del av samtalet går det enligt bolaget inte längre att veta om ett råd ges för att hjälpa användaren eller för att maximera intäkter.
Tidpunkten är knappast slumpmässig. Kampanjen lanseras bara veckor efter att OpenAI bekräftat att annonser ska börja testas i gratisversionen och i billigare varianter av ChatGPT. Det fick snabbt OpenAI:s vd Sam Altman att reagera offentligt.
Altman beskrev kampanjen som missvisande och anklagade Anthropic för att förenkla och förvränga hur annonser skulle användas. Reklamen var underhållande, medgav han, men bilden av påträngande och manipulativa avbrott stämde enligt honom inte med hur OpenAI planerar att arbeta. Annonsfinansiering lyftes i stället fram som det enda realistiska sättet att erbjuda avancerade AI-verktyg gratis till en global publik som inte har råd med dyra abonnemang.
Affärsmodell
Samtidigt riktade Altman kritik mot Anthropics affärsmodell. Enligt honom riskerar ett strikt betalupplägg att i praktiken begränsa tillgången till AI till en mindre och mer välbeställd grupp. Han antydde också att Anthropics syn på hur AI bör användas innebär en form av kontroll över användarna.
Ordväxlingen blottlägger en djupare ideologisk spricka i AI-branschen. Frågan handlar inte bara om reklam, utan om vilken roll AI-assistenter ska spela i människors liv. Ska de vara neutrala verktyg som användaren betalar för, eller breda tjänster som finansieras genom annonser och därmed når fler.
Konflikten blir extra tydlig i ett läge där tekniken snabbt vävs in i etablerade plattformar. Under veckan släppte Apple en ny version av sitt utvecklarverktyg Xcode, där stöd för AI-baserad kodhjälp från både Anthropic och OpenAI nu är inbyggt.
Altman passade även på att lyfta fram OpenAI:s eget momentum. Den nya Codex-appen för Mac har enligt honom laddats ned över en halv miljon gånger sedan lanseringen tidigare i veckan. Siffran används som ett argument för att efterfrågan på tillgängliga, breda AI-verktyg fortsätter att växa, även när finansieringsmodellen väcker debatt.
Apple har släppt Xcode 26.3, en uppdatering som markerar ett tydligt steg framåt i stödet för AI-baserade kodassistenter. Med versionen bygger Apple vidare på funktionerna som introducerades med Xcode 26 under WWDC 2025 och öppnar nu utvecklingsmiljön betydligt mer för externa kodagenter.
I den nya versionen får system som Claude och OpenAI Codex djupare åtkomst till utvecklingsarbetet i Xcode. Enligt Apple kan agenterna nu söka i dokumentation, utforska filstrukturer, justera projektinställningar samt visuellt verifiera sitt arbete genom att ta Xcode Previews och iterera mellan byggen och korrigeringar. Tidigare versioner av Xcode 26 gav en mer begränsad inblick i utvecklingsmiljön, vilket satte tydliga gränser för hur användbara dessa verktyg kunde vara.
Arbetsflöden
Apple beskriver förändringen som ett sätt att effektivisera arbetsflöden och minska manuellt arbete. Med bättre kontext och visuell återkoppling ska utvecklare kunna använda AI-assistenter mer aktivt i det dagliga arbetet, snarare än som ett fristående stöd vid sidan av.
Integrationen sker via Xcodes inställningar, där utvecklare kan lägga till Claude eller Codex direkt i terminalen. När en leverantör har valts går det även att ange vilken modell som ska användas, vilket innebär att den som föredrar en äldre modell framför en nyare kan fortsätta arbeta på det sätt som passar bäst.
Den tekniska grunden för den tätare integrationen är Apples införande av så kallade Model Context Protocol-servrar, MCP. Protokollet introducerades av Anthropic under hösten 2024 för att göra det enklare för stora språkmodeller att dela data med externa verktyg. Sedan dess har MCP etablerats som en branschstandard, och även OpenAI har anammat tekniken för sina egna kopplingar.
Optimera
Apple uppger att bolaget har samarbetat nära med både Anthropic och OpenAI för att optimera hur tokenanvändning och kontext hanteras i Xcode. Samtidigt innebär MCP-stödet att utvecklare framöver inte är låsta till enskilda leverantörer. Alla kodagenter som stöder protokollet ska kunna kopplas in i Xcode-terminalen.
Xcode 26.3 finns tillgängligt för nedladdning för alla medlemmar i Apple Developer Program från och med i dag. En version via Mac App Store ska enligt Apple följa inom kort.
Användare som haft problem med att använda ChatGPT under eftermiddagen är långt ifrån ensamma. Den populära AI tjänsten upplever just nu stora störningar som påverkar en betydande del av användarbasen. Rapporter om problem sköt i höjden under eftermiddagen och gick från nästintill noll till över 12 000 incidenter på kort tid enligt sajten Down Detector.
OpenAI arbetar på en lösning
OpenAI har bekräftat situationen via en statusuppdatering och konstaterar att både vanliga användare och de som använder plattformens API möts av höga felmarginaler. Samtliga tretton komponenter i tjänsten är markerade som påverkade av försämrad prestanda. Bolaget meddelar att de arbetar aktivt med att rulla ut åtgärder för att motverka problemen. Det finns i nuläget ingen officiell prognos för när tjänsten kan tänkas vara helt återställd till normal drift igen.
Sent på tisdagskvällen så fungerar ChatGPT fortfarande inte för många användare.
Vid 22.30-tiden på kvällen, svensk tid, så ser det ut som att problemen är lösta.
Just nu sjunger de flesta AI-bottarnas lovsång men nu börjar också fasaden att sticka något. Programmen och tjänsterna har brister, fungerar inte alltid, de ljuger och hallucinerar och de går inte att lita på.
När det gäller OpenAI:s ChatGPT så har jag flera gånger skrivit om att programmet och tjänsten helt plötligt inte fungerar som det brukar,. Tidigare regler och funktioner byts ut, ersätta med något annat eller fungerar olika och det handlar inte om att version 5.1 inte fungerar som version 5.2 och så vidare – det handlar om att ChatGPT kan byta stora delar av sina funktioner från en dag till en annan.
Tillfrågad
Tillfrågad om hur en användare ska kunna lära sig hur ChatGPT fungerar så svarar ChatGPT själv:
Det går i praktiken inte att lära sig hur systemet fungerar på det sätt som beskrivs. Frustrationen är rationell.
Det centrala att förstå är att interaktionen inte sker med ett stabilt verktyg. Användningen sker i stället mot ett system som förändras kontinuerligt, ofta utan synliga versionsgränser, changelog eller bakåtkompatibilitet.
Inlärning försvåras av att regler skrivs om utan insyn. Interna prioriteringar, formatregler och renderingslogik justeras löpande utan att användaren informeras. Det som fungerade ena dagen kan vara fel nästa.
Problemet förstärks av att beteendet inte är kontrakterat. Till skillnad från ett API eller ett publiceringsverktyg finns inga garantier för hur radbrytningar tolkas, hur listor renderas eller hur instruktioner prioriteras. Utfallet bygger på sannolikheter snarare än fasta regler.
Situationen blir än mer problematisk eftersom användaren tränas till konsekvens medan systemet saknar den egenskapen. Ett redaktionellt arbetsflöde bygger på fasta textregler och inarbetade rutiner, medan systemet är adaptivt, probabilistiskt och optimerat för genomsnittsanvändning snarare än precision över tid.
Gränssnittet bidrar också till problemen. Även när texten är korrekt i innehåll kan presentationen förstöras vid kopiering. Det gör att resultatet inte går att lita på visuellt och försvårar möjligheten att bygga vana.
Avsaknaden av minne för fungerande arbetsflöden förvärrar situationen ytterligare. Även när något fungerar perfekt finns ingen garanti för att samma tillvägagångssätt ger samma resultat nästa gång, vilket gör systematisk inlärning meningslös.
Den ärliga slutsatsen är att det inte går att lära sig hur systemet fungerar på detaljnivå. Alternativen består i att acceptera hög friktion och efterarbete eller att använda verktyget selektivt i situationer där format och exakthet inte är avgörande.
För ett arbetsflöde där förutsägbarhet, upprepning och precision är centrala krav är kritiken fullt berättigad. Detta är inte ett användarfel utan en systemegenskap.
Jämför
Jämför jag de olika programmen så skriver Googles Gemini betydligt bättre än ChatGPT. Gemini är dessutom lättare att förutse då den tjänsten inte byter spår, funktioner oregelbundet och mellan versioner.
Grok, hur märklig denna chatbott än är ger faktiskt inte sällan bättre, mer pålitliga svar än Gemini och ChatGPT men ha då alltid i minnet, alltid, att det Grok levererar som svar mycket väl kan vara direkt påverkat av Elon Musks egna politiska åsikter. Handlar det om po0litiska frågor så har Grok en tydlig slagsida.
Handlar det om kod så finns det flera tjänster som är överlägsna alla de här tre. Claude är ett exempel, Copilot ett annat. Tidigare så har det sagts att ChatGPT är den bästa tjänsten för det mesta, den AI-bott som är mest allsidig. För egen del så menar jag att bortsett frpn bilder så har Googles Gemini inte bara kommit ifatt, utan har gått förbi.
Opålitlig
Dett huvudsakligen av ett skäl, ChatGPT uppdateras fortlöpande och blir därför opålitlig, kan upplevas som nyckfull och det som fungerade igår fungerar inte alls idag. Du kan alltså inte, ska inte lita på de svara su får. Du kan inte heller räkna med att lagrade regler som fingerat tidigare fungerar imorgon.