Apple skrotar gamla Siri: Vårens jätteuppdatering bygger på Google Gemini

Apple skrotar gamla Siri: Vårens jätteuppdatering bygger på Google Gemini

Snygg kvinna som använder mobiltelefon med Wi-Fi-ikon i ett hemtrevligt vardagsrum. Perfekt för att visa teknologi och digitala tjänster hos Magasin MACKEN.

Vårens uppdatering till iOS 26.4 innebär en totalrenovering av Siri. Apple överger den gamla hybridmodellen och lanserar en helt ny arkitektur byggd kring stora språkmodeller (LLM). Istället för att bara leta efter nyckelord får assistenten nu en förmåga till resonemang som påminner om ChatGPT och Claude.

Bakom kulisserna har Apple ingått ett flerårigt samarbete med Google. Siri i iOS 26.4 använder en specialanpassad modell utvecklad tillsammans med Gemini-teamet. Apple fortsätter att utveckla egna modeller internt, men för de publika funktionerna är det Googles teknik som nu driver utvecklingen framåt.

Tre pelare i den nya assistenten

Den nya Siri-versionen fokuserar på tre huvudområden som ska göra assistenten mer användbar i vardagen:

  • Personlig kontext: Siri kan nu hålla reda på information i mejl, meddelanden, filer och foton. Du kan ställa frågor som ”Var är receptet Eric skickade till mig?” eller be assistenten hitta ditt passnummer i dina dokument.

  • Skärmmedvetenhet: Assistenten ser vad som händer på din skärm. Om någon skickar en adress i ett meddelande kan du be Siri lägga till den på personens kontaktkort direkt, eller be henne skicka bilden du just nu tittar på till en vän.

  • Djupare appintegration: Siri kan utföra uppgifter som sträcker sig över flera appar. Det handlar om allt från att redigera ett foto och sedan skicka det, till att hämta vägbeskrivningar och samtidigt dela din ankomsttid med en kontakt.

En nödvändig omstart

Beslutet att bygga om Siri från grunden togs efter interna problem under 2025. Mjukvaruchefen Craig Federighi förklarade för anställda att det tidigare försöket att kombinera gamla system med nya AI-modeller misslyckades. Den enda vägen framåt var en helt ny arkitektur.

Misslyckandet ledde till en omfattande omstrukturering i Apples ledning. Mike Rockwell, tidigare chef för Vision Pro, har tagit över ansvaret för Siri efter John Giannandrea. Enligt Federighi har det nya ledarskapet gett utvecklingen en välbehövlig energikick.

Inte en fullfjädrad chatbot ännu

Trots de stora förbättringarna fungerar Siri i iOS 26.4 inte som en ren chatbot. Den saknar fortfarande långtidsminne för längre konversationer och behåller i stort sitt röstbaserade gränssnitt. Steget till en fullfjädrad konversations-AI väntas istället ske i iOS 27 nästa år.

Apple fortsätter att prioritera integritet genom att köra vissa funktioner direkt på enheten och använda Private Cloud Compute för mer krävande uppgifter. All personlig data stannar på enheten och användaren kan fortfarande välja att stänga av AI-funktionerna helt.

Lansering under våren

iOS 26.4 väntas gå in i betatestning under slutet av februari eller början av mars. Den publika lanseringen planeras ske runt april. Uppdateringen förväntas fungera på alla enheter som har stöd för Apple Intelligence.

Läs mer

iOS 26.4 i sikte – Siri, emoji och fler nyheter väntar

 

ChatGPT och AI-botar tar plats i CarPlay

 

Apple skrotar planerna på en digital hälscoach

 

 

Macken testar: Nya Codex, AI-assistenten som faktiskt förstår hela ditt projekt

Macken testar: Nya Codex, AI-assistenten som faktiskt förstår hela ditt projekt

Teknik, industri och robotar i ett futuristiskt fabriksmiljö.

OpenAI växlar upp med Codex, en AI-satsning som vill göra mer än att bara gissa nästa rad kod. Ambitionen är att skapa en självständig assistent som tar ett rejält ansvar i utvecklingsarbetet. Istället för att bara agera autocomplete kan Codex skriva, analysera och strukturera kod med en helhetsförståelse som faktiskt imponerar.

Hanterar hela projektet

Det som sticker ut är hur Codex tar sig an arbetsflödet. Den nöjer sig inte med enstaka filer utan kan läsa in större kodbaser och förstå sammanhanget. För utvecklare i stora projekt märks det snabbt att verktyget tänker mer som en kollega än en maskin. Den ser hur olika delar hänger ihop och föreslår lösningar som passar in i din befintliga struktur.

Effektiv vid rutinjobb

Styrkan märks tydligast vid repetitiva moment. Behöver du sätta upp en grundstruktur, skriva standardfunktioner eller översätta kod mellan olika språk? Codex fixar det på några sekunder. Uppgifter som normalt sett äter tid men kräver låg kreativ höjd betas av i ett högt tempo. Det frigör utrymme för dig att fokusera på de svåra besluten.

Det märkt också om du plockar upp ett gammal projekt, gammal kod. Du kan fråga om funktioner, om npgot behövs uppdateras och du kommer att få bättre och mer korrekta svar än med ChatGPT.

Ingen genväg utan ansvar

Det finns dock tydliga gränser. Codex har koll på koden, men inte nödvändigtvis på din affärslogik. När logiken blir djupt kopplad till specifika verksamhetsregler krävs det glasklara instruktioner. Annars riskerar du att få kod som tekniskt sett fungerar, men som helt missar målet. Precis som med all AI gäller regeln: lita aldrig blint på resultatet. Allt måste testas och gås igenom manuellt.

Kräver erfarna fingrar

Codex belönar erfarenhet. För dig som har koll på arkitektur och praxis blir verktyget snabbt en kraftfull förstärkning. För mindre erfarna utvecklare kan det däremot vara svårt att avgöra när assistenten leder en fel.

Sammanfattningsvis är Codex ett rejält kliv framåt. Det förändrar inte vad det innebär att vara programmerare, men det förändrar tempot i vardagen. För den som vet vad som ska byggas är detta en tydlig produktivitetsvinst.

Codex ingår i abonnemanget för ChatGPT.

Läs mer

OpenAI lanserar snabbare och uthålligare Codex-modell för utvecklare

 

OpenAI släpper Codex för Mac – en ny app för agentbaserad kodning

 

 

Ny rapport varnar: utvecklingen av AI går snabbare än skyddet

Ny rapport varnar: utvecklingen av AI går snabbare än skyddet

Hur snabbt utvecklas artificiell intelligens, och vilka risker följer med den tekniska kapplöpningen? Det är kärnfrågan i den senaste internationella AI-säkerhetsrapporten, som kartlägger nuläget för tekniken och de konsekvenser den redan börjar få för samhälle, ekonomi och individer.

Rapporten samlar forskare, tekniker och samhällsvetare kring en gemensam genomlysning av AI-utvecklingen. Fokus ligger inte på framtidsscenarier långt bort, utan på vad som faktiskt händer nu – från allt mer övertygande deepfakes till osäkerheten kring jobb, säkerhet och mänsklig kontroll.

Oroande

Bakom rapporten står ett arbete som initierades vid det globala AI-säkerhetstoppmötet 2023. Ordförande är den kanadensiske datavetaren Yoshua Bengio, som beskriver utvecklingen som både imponerande och oroande. Snabba genombrott har öppnat nya möjligheter, men också skapat problem som saknar enkla lösningar. Arbetet stöds av flera tunga rådgivare, bland dem Nobelpristagarna Geoffrey Hinton och Daron Acemoglu.

Årets rapport är den andra i ordningen och ska främst ses som en ögonblicksbild av läget just nu. Författarna undviker att peka ut exakta politiska åtgärder, men dokumentet väntas ändå få stort inflytande när politiker, teknikbolag och organisationer samlas till nästa globala AI-toppmöte i Indien.

AI blir smartare, men inte jämnare

Utvecklingen av nya AI-modeller har fortsatt i högt tempo. Under det senaste året har flera system lanserats som blivit betydligt bättre på att resonera steg för steg, snarare än att bara leverera snabba svar. Resultatet syns tydligt inom matematik, programmering och naturvetenskap. En symbolisk milstolpe nåddes när AI-system för första gången presterade på guldnivå i den internationella matematikolympiaden.

Samtidigt pekar rapporten på att framstegen är ojämna. AI kan briljera i vissa sammanhang men faller platt i andra. Systemen är fortfarande benägna att hitta på fakta och klarar inte att självständigt driva längre, sammanhängande projekt. Förmågan är imponerande, men långt ifrån allsidig.

Studier som rapporten hänvisar till visar ändå att AI snabbt förbättrar sin uthållighet inom vissa områden, särskilt mjukvaruutveckling. Uppgifter som systemen klarar av blir längre och mer komplexa i snabb takt. Om utvecklingen fortsätter i samma tempo kan AI få en tydlig påverkan på arbetsmarknaden inom några få år. I nuläget bedöms dock tillförlitlig automatisering av mer omfattande arbetsuppgifter fortfarande ligga utom räckhåll.

Deepfakes blir allt svårare att genomskåda

Ett område som väcker särskild oro är spridningen av deepfakes. Rapporten lyfter fram den snabba ökningen av manipulerat bild- och videomaterial, inte minst inom pornografiskt innehåll. Samtidigt har AI-genererat material blivit allt svårare att skilja från äkta. Studier visar att en stor andel människor inte längre kan avgöra om en text eller bild är skapad av en människa eller en maskin.

Trots detta finns det än så länge begränsade bevis för att AI används systematiskt för storskalig politisk manipulation. Hotbilden finns där, men har ännu inte slagit igenom fullt ut.

Ett tveeggat svärd inom biologi och kemi

AI:s växande kapacitet inom forskning och laboratoriearbete skapar både hopp och huvudbry. Systemen kan i dag bidra till läkemedelsutveckling, medicinsk diagnostik och avancerad molekyldesign. Samma verktyg riskerar dock att missbrukas för farligare syften.

Rapporten beskriver detta som ett politiskt dilemma. Att begränsa tillgången till tekniken kan bromsa viktiga genombrott inom vården, medan öppen tillgång kan öka riskerna för allvarliga missbruk. Någon enkel väg framåt pekas inte ut.

AI-följeslagare och känslomässiga band

Under det senaste året har AI-baserade följeslagare blivit allt vanligare. Chattbotar används inte längre bara som verktyg, utan också som samtalspartner. Rapporten visar att en liten men växande grupp användare utvecklar starka emotionella band till dessa system.

Forskare betonar att det inte finns tydliga bevis för att AI orsakar psykisk ohälsa. Risken anses snarare ligga i att personer med redan befintliga problem använder tekniken mer intensivt, vilket kan förstärka deras svårigheter. Frågan har ändå blivit så pass tydlig att den nu diskuteras brett inom vård och forskning.

Cyberhoten ökar, men människan behövs fortfarande

AI kan redan i dag hjälpa till vid cyberattacker, exempelvis genom att analysera mål eller skriva skadlig kod. Helt självständiga attacker, där AI driver hela processen från start till mål, är dock fortfarande ovanliga. Tekniken saknar ännu förmågan att hantera långa och komplexa angrepp utan mänsklig inblandning.

Exempel från det senaste året visar ändå att graden av automatisering ökar. I vissa attacker har majoriteten av momenten genomförts utan direkt mänsklig styrning, vilket pekar mot en utveckling som går snabbt.

Jobbfrågan förblir öppen

Hur AI påverkar arbetsmarknaden är fortfarande en av de mest omdebatterade frågorna. Rapporten visar på stora skillnader mellan länder och branscher. Vissa ekonomier har tagit till sig tekniken snabbt, medan andra knappt har börjat.

Studier pekar i olika riktningar. I vissa länder syns inga tydliga effekter på sysselsättningen, medan andra data antyder att nyanställningar bromsar in i branscher där AI används mycket. Yngre och mer juniora roller verkar vara mest utsatta.

Slutsatsen är försiktig. Den verkligt stora omvälvningen kan komma först när AI klarar att arbeta mer självständigt, över längre tid och med mer komplexa mål. När och om det sker återstår att se.

Källa: The Guardian

Apple skrotar planerna på en digital hälscoach

Apple skrotar planerna på en digital hälscoach

Apple backar från satsningen på en omfattande AI-tjänst som skulle fungera som en personlig hälsocoach och läkarsubstitut. Enligt uppgifter från Bloombergs Mark Gurman har projektet, som internt gått under namnet Health+, skalats ner rejält efter en omorganisation där tjänstechefen Eddy Cue tagit över hälsoavdelningen.

Strategibyte under ny ledning

Tjänsten var tänkt att använda AI för att analysera användares matvanor, korrigera träningsteknik via kameran och föreslå livsstilsförändringar baserat på hälsodata. Apple ska till och med ha producerat instruktionsvideor för att förklara medicinska tillstånd. Eddy Cue anses dock ha bedömt att de nuvarande planerna inte var tillräckligt konkurrenskraftiga mot utmanare som Oura, som redan erbjuder avancerade funktioner direkt i sina iOS-appar.

Funktionerna rullas ut stegvis

Istället för att lansera en komplett hälsotjänst väljer Apple nu att integrera de utvecklade funktionerna i den befintliga Hälsa-appen över tid. De pedagogiska videorna och databaserade rekommendationerna kan dyka upp redan under början av detta år.

Siri tar över rollen som hälsorådgivare

Som en tillfällig lösning arbetar bolaget på en chattbot fokuserad på välmående. Det långsiktiga målet är dock att Siri ska hantera alla hälsofrågor i framtiden genom den stora AI-uppdatering som väntar för assistenten. Strategin skiftar därmed från en fristående prenumerationstjänst till att förstärka de existerande verktygen i Apples ekosystem.

Källa: Engadget 

Del 5: Den mänskliga faktorn – Strategier för ett varaktigt skydd

Del 5: Den mänskliga faktorn – Strategier för ett varaktigt skydd

- Alt text: Retro bild av människor som gör en beteendeanalys på ett kontor med signaturer för olika aktiviteter.

I den avslutande delen av vår serie skiftar vi fokus från tekniska barriärer till det som ofta är den svagaste länken i alla säkerhetssystem: människan. Under 2026 har vi sett hur tekniska skydd blivit så starka att angripare nästan helt slutat försöka ”hacka” mjukvara. Istället satsar de på att hacka dig.

Genom social manipulation och psykologiska påtryckningar försöker de få dig att frivilligt öppna de dörrar som du så noggrant har låst.


Social manipulation i AI-åldern

Tidigare var nätfiske ofta lätt att genomskåda på grund av dåligt språk eller uppenbara felaktigheter. Med dagens generativa AI skapas trovärdiga meddelanden som perfekt efterliknar tonläget hos en kollega, en bank eller en myndighet. Under 2026 har vi dessutom sett en ökning av ”deepfake audio”, där ett kort telefonsamtal med vad som låter som en familjemedlem i nöd används för att lura till sig inloggningsuppgifter eller pengar.

Steg 1: Etablera en kultur av hälsosam skepticism

Det mest effektiva skyddet mot social manipulation är inte en app, utan ett förändrat beteende. Du behöver bygga upp en mental brandvägg som aktiveras så fort något känns brådskande eller ovanligt.

  • Verifiera via en annan kanal: Om du får ett oväntat meddelande från din chef på en fredagskväll om att snabbt godkänna en faktura, ring upp personen på ett känt nummer. Lita aldrig på att avsändaradressen i ett mejl är korrekt.

  • Var uppmärksam på känslomässiga triggers: Angripare spelar på rädsla, nyfikenhet eller stress. Om ett meddelande kräver att du agerar ”omedelbart” för att undvika att ett konto stängs ner, är det nästan uteslutande ett bedrägeriförsök.

Steg 2: Minimera din publika profil

Information du delar gladeligen på sociala medier är guld värd för en angripare som vill bygga förtroende. Namn på husdjur, gamla skolor eller semestrar används ofta för att gissa lösenord eller för att skapa en trovärdig bakgrundshistoria i ett nätfiskemeddelande.

  • Gör en digital storstädning: Radera gammal information och begränsa framtida inlägg till att endast vara synliga för vänner.

  • Separera dina identiteter: Använd olika mejladresser för olika syften. Ha en adress för nyhetsbrev och shopping, och en helt annan, hemlig adress för dina viktigaste bankärenden och myndighetskontakter. Det gör att ett dataintrång hos en e-handlare inte direkt äventyrar hela din digitala existens.

Steg 3: Bygg en långsiktig säkerhetsrutin

Säkerhet är inte ett projekt som blir färdigt, utan en pågående process. För att ditt skydd ska hålla över tid behöver du rutiner som blir till vanor.

  • Månatlig säkerhetsöversyn: Avsätt 15 minuter varje månad för att gå igenom dina viktigaste konton. Kontrollera inloggningshistoriken och se om det finns enheter anslutna som du inte känner igen.

  • Uppdatera omedelbart: Installera systemuppdateringar så fort de blir tillgängliga. Under 2026 innehåller dessa nästan alltid kritiska rättningar för sårbarheter som redan utnyttjas aktivt.


Sammanfattning av serien: Din väg mot digital frihet

Vi har under dessa fem delar gått igenom allt från grundläggande kryptering till avancerade verktyg som Lulu och strategier för att röra sig anonymt i staden. Det viktigaste att ta med sig är att integritet inte handlar om att ha något att dölja, utan om rätten att själv bestämma vad man vill dela med världen.

  1. Tekniken skyddar din data: Använd kryptering, brandväggar och Lockdown Mode.

  2. Kunskapen skyddar ditt agerande: Håll dig informerad om nya hot och dina lagstadgade rättigheter.

  3. Omdömet skyddar dig som person: Var skeptisk, dela sparsamt och lita på din intuition.

Genom att kombinera dessa tre delar har du byggt ett försvar som står emot de flesta hot vi möter under 2026. Tack för att du har följt med på denna resa genom övervakningens landskap.

Öppen källkod pressas när utvecklare ersätts av AI-agenter

Öppen källkod pressas när utvecklare ersätts av AI-agenter

En ny europeisk forskningsstudie pekar ut ett oväntat hot mot öppen källkod. Det som i utvecklarkretsar kallas ”vibe coding” beskrivs som en kraft som riskerar att urholka hela ekosystemet – snabbare än många hade föreställt sig.

Vibe coding syftar på arbetssättet där kod skrivs snabbt med hjälp av stora språkmodeller. Med begränsad teknisk kunskap går det numera att bygga och driftsätta mjukvara utan att fullt ut förstå eller ens läsa all kod som produceras. Tröskeln har sänkts dramatiskt. Kostnaden syns däremot någon annanstans.

Den här typen av utveckling vilar nästan helt på öppen källkod. Bibliotek, databaser, dokumentation och gemensam kunskap som byggts upp under årtionden används som råmaterial. Samtidigt bygger öppen källkod på ett ömsesidigt kontrakt. De som använder projekten förväntas i någon form bidra tillbaka, genom tid, pengar eller kunskap. Det är människor som rättar buggar, uppdaterar beroenden och täpper till säkerhetshål.

Forskarna

Forskarna bakom studien menar att vibe coders i stor utsträckning bryter mot detta kontrakt. Användningen ökar, men återföringen uteblir.

Studien, med titeln Vibe Coding Kills Open Source, angriper frågan ur ett ekonomiskt perspektiv. Kärnfrågan är om öppen källkod är hållbar när en växande del av användarna aldrig möter projekten direkt, utan via AI-verktyg. Slutsatsen är tydlig. Under dagens affärsmodeller är svaret nej.

Forskarna beskriver hur högre användning av AI-förmedlad kod minskar intäktsbasen som i dag håller många projekt vid liv. Dokumentation läses mer sällan, sponsorer nås inte och tröskeln för att dela kod höjs. Mekanismer som tidigare drev tillväxt riskerar i stället att förstärka en nedåtgående spiral.

Utvecklingen har redan fått konkreta konsekvenser. Det populära CSS-ramverket Tailwind tvingades nyligen säga upp tre av sina fyra utvecklare. Populariteten har aldrig varit större, men intäkterna har rasat. Projektets grundare Adam Wathan beskriver hur trafiken till dokumentationen minskat kraftigt trots att användningen ökat. Dokumentationen var den främsta vägen till de kommersiella produkter som finansierade utvecklingen. När den vägen försvinner försvinner också möjligheten att underhålla ramverket.

Bekvämligheten

En av studiens författare, nationalekonomen Miklós Koren vid Central European University i Wien, menar att Tailwind snarare är ett förvarningsexempel än ett undantag. Bekvämligheten i att låta AI-verktyg göra jobbet är helt enkelt för stor. Många utvecklare tänker aldrig på vilka projekt som ligger bakom resultaten de får. Koren erkänner att han själv fallit in i beteendet.

Studien pekar på en avgörande obalans. Kostnaden för att utveckla mjukvara sjunker snabbt, men den mänskliga interaktionen kollapsar ännu snabbare. Små förbättringar i AI-modeller leder till att många byter arbetssätt direkt. Samtidigt riktar AI-bolagen in sig på företag och kunskapsarbetare, vilket ytterligare naggar den betalstarka användarbasen i kanten.

Forskarna varnar för att detta i längden hotar både öppen källkod och vibe coding i sig. Öppen källkod går inte att frysa i ett färdigt tillstånd. Kod måste underhållas, sårbarheter täppas till och beroenden uppdateras. Försvinner incitamenten för underhåll faller grunden som AI-verktygen står på.

Ett möjligt motdrag är enligt forskarna att stora AI-bolag slutar åka snålskjuts. Ett system för intäktsdelning baserat på faktisk användning av öppen källkod lyfts fram som en nödvändig väg framåt. Tekniken finns redan, men affärsmodellerna saknas.

Mönstret

Mönstret känns igen från andra håll. Wikipedia har rapporterat kraftigt ökad trafik, men nästan uteslutande från AI-system som skrapar innehåll. Användare som möter Wikipedia via AI uppdaterar inte artiklar och bidrar inte ekonomiskt. Samma sak sker nu inom mjukvaruvärlden.

Populära projekt kommer sannolikt att klara sig genom sponsorer och företagssamarbeten. Smalare och nischade projekt löper betydligt större risk. Samtidigt påminner forskarna om att många av dagens hörnstenar började som små hobbyprojekt. Linux, git och grep växte fram ur enskilda personers behov.

Frågan som återstår är enkel och obekväm. Om de små projekten dör först, vem bygger då nästa generation av den öppna mjukvara som allt annat vilar på.