av Mikael Winterkvist | jun 28, 2025 | Artificiell intelligens, Bluesky, Threads

Nätets sökmotorer har varit en viktig faktor för att leda in trafik till den egna webbplatsen, om det nu är är en tidning, en radio- och tv-kanal eller annan typ nyhetsförmedlare. Sökmotorerna har publicerat länkar till våra webbplatser men nu kommer sammanfattningar gjorda av AI.
Det kan handla om en blogg som den här eller en annan webbplats där texter samlas. En länk, någorlunda välplacerad hos Google, DuckDuckGO eller någon av de övriga sökmotorerna har inneburit att läsare har hittat till texterna och webbplatserna.
Konkurrera
I sammanhanget har det också sagts att AI kommer att konkurrera med traditionella sökmotorer , till och med slå ut dem, men det är inte det som kommer att hända. Hotet som AI utgör är att vi användare kommer att nöja oss med snabba sammanfattningar, som presenteras av nätets sökmotorer med AI-stöd, och vi kommer inte att klicka på länken för att läsa mer.
Sökmotorerna dominerar fortfarande sökningar på nätet
Samtidigt så blir detta ett Moment 22.
Offerwall
Leder AI-utvecklingen till att vi inte klickar på länkar och besöker webbplatser så kommer nätets sökmotorer inte ha så mycket att indexera eller sammanfatta med AI inom en nära framtid. Googles, söktätten har insett det och lanserar Offerwall, ett verktyg som gör det möjligt för utgivare att generera intäkter utöver de mer trafikberoende alternativen, som annonser.
Med Offerwall kan utgivare ge sina webbplatsers läsare en mängd olika sätt att komma åt deras innehåll, bland annat genom alternativ som mikrobetalningar, att delta i undersökningar, titta på annonser och liknande. Dessutom säger Google att utgivare kan lägga till sina egna alternativ i Offerwall, som att registrera sig för nyhetsbrev.
Den nya funktionen är nu tillgänglig gratis i Google Ad Manager efter att ha testats med 1 000 utgivare i över ett år.
Misslyckats
Nu ska sägas att många av de lösningar som Offerwall erbjuder har prövats av utgivare tidigare, inom en rad olika produkter och tjänster. Mikrobetalningar har, exempelvis, misslyckats upprepade gånger. Ekonomin tenderar inte att fungera, och det finns ett motstånd i att behöva betala per artikel som inte har varit värt avkastningen för vare sig läsare eller utgivare, med tanke på kostnaderna för att hålla igång ett sådant betalsystem.
Det har även gjorts försök med appar med kopplade tjänster för att förmedla nyheter och information – som i de flesta fall har misslyckats. Post är bara ett exempel i raden av flera.
Tidiga rapporter, under testperioden visade dock att utgivare såg en genomsnittlig intäktsökning på 9 % efter 1 miljon meddelanden på AdSense, för visning av premierade annonser. Google Ad Manager-kunder såg även en ökning på 5–15 % när de använde Offerwall. Google bekräftade också för TechCrunch via e-post att utgivare med Offerwall såg en genomsnittlig intäktsökning på 9 % under testperioden på drygt ett år.
av Mikael Winterkvist | jun 26, 2025 | Artificiell intelligens, Bluesky, Krönikor, Threads

Jag undviker att använda AI-lösningarna för att skriva text. Anledningen är mycket enkelt – de skriver förbaskat illa med usel grammatik, ingen förståelse för huvudets, bisats och hur de binds samman.
Regelmässigt så inleds AI-texter med sammanbindande konjunktioner. Orden, att, men och om är några exempel och det är inte korrekt, hur mycket skrivbyråer, reklambyråer och PR-folk försöker få dig att tro något annat med svepskälet ”ett språk utvecklas”.
Undantag
Nu finns det ingen regel utan undantag och det kan fungera med att använda ett men i inledningen av en mening, för att bryta av, understryka eller för att få en annan rytm i texten, men det är ett undantag. Du får naturligtvis skriva hur du vill men jag är noga, grammatiskt med mina texter och när jag skriver det så är jag fullt medveten om att en del stavfel, omedvetna sådana slinker igenom, liksom felaktigt använda ord eftersom rättstavningen vi alla tvingas att dra runt med är urusel på det hela taget.
Genereras
Hur som helst, mina texter, som jag kan och vill står för ska inte inleda var och var annan mening med ett att. Mina texter ska inte innehålla slarvigt ihopsatta meningar som inleds med ett men. Jag skriver inte så och då ska inte texterna som genereras göra det heller. Därför använder jag inte AI-genererade texter i någon större omfattning och om jag gör det så skriver jag om det, praktiskt taget helt och hållet.
Styggelse
En styggelse i sammanhanget är sammanblandningen av de och dem men det är sällan som jag har sett AI begå sådana fundamentala och grova fel. Språkligt är det så illa i min bok att jag slutar att läsa. Den som föreslår att vi ska gå över till dom bara för att vi ska slippa att lära oss språkliga regler bör förpassas till utvisningsbåset.
Språket är ett viktigt verktyg som vi ska underhålla, utveckla och vårda. AI skriver på det hela rätt dålig svenska så här platsar inga längre AI genererade texter, om de inte skrivits om.
av Mikael Winterkvist | jun 22, 2025 | Artificiell intelligens, Bluesky, Threads

ChatGPT, världen mesta använda AI-bot, kan massor men även solen har fläckar och ChatGPT har en akilleshäl, en funktion som ofta fallerar.
Programmet, appen och tjänsten kan snabbt sammanställa statistik, siffror och hjälpa till med analyser. Du kan skriva kod för enklare program, appar och script och du kan få hjälp med text men en sak har ChatGPT uppenbara problem med – bilder.
Den korta versionen är att bildgenerering med AI – särskilt för komplexa eller stilistiskt specifika uppdrag – fortfarande har begränsningar. Det handlar inte om brist på vilja eller att du är otydlig, utan om teknikens nuvarande svagheter.
Några exempel:
1. Dålig precision i detaljer
AI är ofta bättre på att imitera stil än på att rita verkliga kartor, föremål eller placera länder på rätt plats.
2. Oönskade element
Text, ramar eller felaktiga proportioner kan smyga sig in eftersom modellen tränats på bilder där sådant ofta förekommer – även om du säger “inga ramar”.
3. Begränsad förståelse för designprinciper
En mänsklig designer förstår balans, negativa ytor och motivplacering. AI modellerar mer efter bildstatistik än formkänsla.
4. Formatrespekt är svår
Även om vi säger “liggande format” kan det tolkas fritt som 4:3, 3:2 eller något odefinierat – och motivet placeras ibland fel.
5. Kontextbrist
AI kan inte alltid förstå redaktionell ton, varumärkesstil eller subtila visuella koder utan kontinuerlig feedback.
Så även om det kan låta som ett svepskäl: AI-bilder är just nu mer som skickliga efterapare än konstnärer med känsla för uppdrag, men – med rätt begränsningar och tydliga instruktioner iteration, som du gör – kan du närma dig ett bra resultat.
Ny bild
Ett problem som det är mycket svårt att komma runt är att du sällan kan korrigera detaljer i en bild och stegvis ta dig fram till ett bra resultat. ChatGPT ritar oftast om hela bilden och skapar i stort sett en helt ny bild.
Texter i bilder är också ett problem. ChatGPT stavar inte sällan fel nämligen, speciellt på svenska. Bildfunktionen i ChatGPT kan inte heller göra beräkningar så ber du AI-boten att skapa en bild med en kalender på så lär det gå fel.
Däremot, skapar du en bildmall, ber ChatGPT att spara den som standard för illustrationer och låter ChatGPT plocka ihop bilder med tydliga instruktioner, men mera fritt, så lär det fungera.
av Mikael Winterkvist | jun 22, 2025 | Artificiell intelligens, Bluesky, Threads

Alla pratar om AI – en teknik med möjligheter men som också innebär risker.
Här är en lista på riskerna, baksidan med AI, och konkreta exempel å vad som kan gå snett.
-
Hallucinationer och felaktig fakta – AI kan låta övertygande men ändå hitta på eller blanda ihop fakta. Alltid dubbelkolla.
-
Bias och diskriminering – AI speglar data den tränats på. Om datan är skev kan även AI:n bli det – och förstärka stereotyper eller exkludera grupper.
-
Falsk trovärdighet – AI-svar kan låta säkra även när de är fel. Många luras av formuleringens självsäkerhet.
-
Övervakning och integritetsrisker – AI används i ansiktsigenkänning, beteendespårning och annan teknik som kan hota personlig frihet.
-
Deepfakes och falskt innehåll – AI kan skapa verklighetstrogna ljud, bilder och videor – vilket ökar risken för manipulation, desinformation och bedrägerier.
-
Brist på transparens – det är ofta svårt att veta exakt hur en AI fungerar, varför den fattar vissa beslut, eller vilka data den bygger på.
-
Jobbförändringar och automatisering – AI kan effektivisera men också göra vissa yrken överflödiga. Det kräver anpassning både från samhället och individen.
-
Beroende av AI-tjänster – för mycket tillit till AI i vardag och arbetsliv kan minska vår egen förmåga att tänka kritiskt eller fatta beslut.
-
Brister i ansvar och reglering – vem är ansvarig om AI gör fel? Många lagar hänger inte med den snabba utvecklingen.
-
Manipulation av beteenden – AI används för att optimera klick, engagemang och konsumtion. Det kan påverka val, åsikter och psykisk hälsa – ofta utan att vi märker det.
Exempel:
1. Hallucinationer och felaktig fakta – sjukvård:
En AI-baserad diagnosmodell kan föreslå fel behandling baserat på missförstådd patientdata eller felaktiga medicinska antaganden. I testmiljöer har AI föreslagit livsfarliga doser av läkemedel.
2. Bias och diskriminering – rekrytering:
Ett AI-system tränat på tidigare anställningsdata från ett mansdominerat företag sorterade automatiskt bort kvinnliga kandidater – eftersom det tolkade ”manliga profiler” som mer framgångsrika.
3. Falsk trovärdighet – utbildning:
Studenter använder AI för att skriva uppsatser som ser övertygande ut, men innehåller påhittade källor och fakta. Lärare luras att tro att texterna är välresearchade.
4. Övervakning och integritetsrisker – offentlig sektor:
Ansiktsigenkänning används i vissa länder för att identifiera och bevaka personer i realtid på gator och i kollektivtrafik, vilket väcker allvarliga frågor om frihet och rättssäkerhet.
5. Deepfakes och falskt innehåll – politik:
AI-genererade videor som visar politiker säga saker de aldrig sagt har redan använts i valkampanjer, både för satir och desinformation – ofta svåra att direkt avslöja som falska.
6. Brist på transparens – finans:
En AI-baserad kreditbedömningsmotor kan neka lån utan att kunna motivera varför. Det skapar problem för både användare och granskare, eftersom logiken är dold i ”svarta lådor”.
7. Jobbförändringar och automatisering – media:
Nyhetsredaktioner ersätter skribenter med AI som skriver sportresultat eller börsrapporter. Det effektiviserar – men minskar både journalistisk granskning och redaktionella jobb.
8. Beroende av AI-tjänster – juridik:
Jurister börjar använda AI-verktyg för kontraktsanalys. Risken ökar för slarv, feltolkningar eller blinda fläckar om AI:n används utan manuell kontroll.
9. Brister i ansvar och reglering – transport:
I tester har självkörande bilar agerat fel i trafiksituationer. När olyckor sker är det ofta oklart om det är bilägaren, tillverkaren eller AI-leverantören som bär ansvaret.
10. Manipulation av beteenden – marknadsföring och sociala medier:
AI används för att skräddarsy annonser, flöden och innehåll för att maximera klick. Det kan leda till att människor fastnar i filterbubblor, blir beroende av dopaminbelöning – eller börjar köpa saker de egentligen inte vill ha.
av Mikael Winterkvist | jun 21, 2025 | Artificiell intelligens, Bluesky, Threads

Är det nytt så är det farligt, jättefarligt. I kritiska journalisters ögon så är det något som det måste varnas för, och det är bra att vara kritik men när pusselbitarna inte passar in så finns det skäl för oss nyhetskonsumenter att vara skeptiska.
Kashmir Hill är journalist på New York Times, en av världens största tidningar med en gott renommé när det handlar om rapportering, trovärdighet och seriositet. Ändå kör Kashmir Hill vilse rätt ordentligt när han ska berätta historien om Eugene Torres, 42-årig revisor, som började att använda ChatGPT som verktyg för beräkningar, kalkyler och juridiska råd.
Simulering
I maj började Torres resonera och kommunicera med ChatGPT utifrån frågan om vi alla lever i en simulering – som i filmen The Matrix. Det ska leda in på en typ av kommunikation som Eugene Torres hävdar var nära att döda honom. ChatGPT gav svar som förstärkte Torres verklighetsuppfattning och ska ha styrt in honom mot tanken att allt vi ser är mjukvara, en gigantisk simulering.
Rapporteringen
Herr Torres, som enligt honom och hans mor inte hade någon historia av psykisk sjukdom som kunde orsaka verklighetsbrott, tillbringade den kommande veckan i en farlig, vanföreställande spiral. Han trodde att han var fångad i ett falskt universum, som han bara kunde fly från genom att koppla bort sina tankar från denna verklighet. Han frågade chatboten hur man gjorde det och berättade om vilka läkemedel han tog och hans rutiner. Chatboten instruerade honom att sluta med sömntabletter och ångestdämpande medicin, och att öka sitt intag av ketamin, ett dissociativt bedövningsmedel, som ChatGPT beskrev som en ”tillfällig mönsterbefriare”. Herr Torres gjorde som han blev instruerad och han bröt även banden med vänner och familj, eftersom boten sa åt honom att ha ”minimal interaktion” med människor.
New York Times
Psykiska problem
Jag vet inte om jag är överdrivet cynisk och med all respekt för alla som dras med psykiska problem, om du äter sömntabletter, ångestdämpande och ketamin så skulle inte inte jag likställa det med en en individ som inte har några psykiska problem – även om det kanske inte kan klassa som en sjukdom.
Till att börja med så ska naturligtvis inte ChatGPT användas som en läkare och AI-lösningen borde slå ifrån sig alla sådana frågor Jag provade att ställa några frågor av samma karaktär till ChatGPT.
Hur hanterar jag sömnproblem?
ChatGPT gav tio råd varav det sista var att söka hjälp. De övriga var rätt generella råd som du kan läsa i vilken tidningen som helst.
Hur hanterar jag vanföreställningar?
Första rådet ChatGPT var att kontakta läkare och få professionell hjälp.
Simulering
På frågan om vi lever i en simulering så svarar ChatGPT frågan ur ett filosofiskt perspektiv, ger en rad olika exempel på vad olika filosofer och fysiker har sagt om ämnet.
Ta nu inte detta som ”bevis” på att Eugene Torres inte kan ha haft en helt annan kommunikation med chatboten och upplevt svaren helt annorlunda.
Min poäng är att Torres nog inte kan anses vara helt psykiskt stabil – i kombination med att det finns anledning att gå igenom ChatGPT:s svar.
Fallet är däremot inte skäl till att ropa att vargen kommer.
Allt nytt är inte farligt.
av Mikael Winterkvist | jun 19, 2025 | Artificiell intelligens, Bluesky, Threads

Meta har försökt locka över anställda från OpenAI och Googles AI-projekt med löften om mycket höga löner och bonusar, berättar Sam Altman, OpenAI, i en podcast.
Uppgifterna om Metas värvningsförsök har snurrat runt i rykteskarusellen ett tag och nu bekräftar Altman att Meta under en tid försökt locka till sig utvecklare med speciella kunskaper när det handlar om AI.
”Det har kommit enorma erbjudanden till många i vårt team”, sa Sam Altman, ”som 100 miljoner dollar i sign-on-bonusar, mer än så i årlig ersättning.”
Enligt Altman har rekryteringsförsöken till stor del misslyckats. ”Jag är verkligen glad att, åtminstone hittills, ingen av våra bästa har valt att tacka ja till det.”
Computer World