Jony Ives och OpenAI:s hårdvara försenas till 2027

Jony Ives och OpenAI:s hårdvara försenas till 2027

OpenAIs första hårdvaruprodukt designad av Jony Ive når inte konsumenter förrän nästa år. Uppgifterna kommer från nya domstolshandlingar som blivit offentliga i samband med en varumärkesrättstvist.

Bakgrunden är en stämning från ljudföretaget iyO som riktats mot OpenAI. Konflikten uppstod efter att OpenAI köpt upp io, ett startup grundat av Apples tidigare designchef.

OpenAIs ursprungliga plan var att leverera den ChatGPT baserade enheten före slutet av 2026. Dokumenten visar nu att lanseringen skjuts upp till tidigast slutet av februari 2027. OpenAI har ännu inte tagit fram vare sig förpackningar eller marknadsföringsmaterial för produkten.

I handlingarna framgår också att OpenAI ändrar sin namnstrategi. Företaget kommer inte att använda namnet io eller varianter av detta för sin AI hårdvara.

En skärmfri produkt för fickan

Detaljerna kring den nya produkten är fortfarande få. Enheten beskrivs som en tredje kärnenhet som ska komplettera mobilen och datorn. Tidigare uppgifter i rättstvisten tyder på att det varken rör sig om hörsnäckor eller annan kroppsburna teknik.

Läckor pekar på att prylen är i fickformat, saknar skärm och har förmågan att förstå användarens omgivning och vardag. OpenAIs vd Sam Altman ska ha beskrivit tekniken som det häftigaste världen skådat efter att ha testat en prototyp i sitt hem.

Rykten om Super Bowl reklam

Uppgifterna om förseningen kommer samtidigt som rykten spridits om att OpenAI skulle ha dragit tillbaka en reklamfilm under Super Bowl. Ett videoklipp som cirkulerat på sociala medier visade skådespelaren Alexander Skarsgård i silverfärgade hörlurar. Dessa rykten har nu dementerats och inläggen har tagits bort.

Läs mer

OpenAI köper Jonny Ives bolag

 

Vad är det Jonny Ive och Sam Altman tänker bygga?

 

Varumärkestvist tvingar Jonny Ive och Open AI att berätta mer om vad de bygger

 

 

DuckDuckGo lanserar privat röstchatt i Duck.ai

DuckDuckGo lanserar privat röstchatt i Duck.ai

DuckDuckGo sökmotor, digital marknadsföring, modern sökteknologi, internet sökning, online integritet, säker internetsökning, webbsökfunktioner, användarvänlig sökmotor, personligt anpassad sökning, högkvalitativ sökalgoritm.

DuckDuckGo har lagt till röstsamtal i sin tjänst Duck.ai. Den nya funktionen gör det möjligt att prata direkt med en AI-assistent utan att ljudet spelas in eller används för att träna framtida modeller.

Tjänsten fungerar i DuckDuckGo-webbläsaren och i de flesta andra tredjepartsläsare, medan stöd för Mozilla väntas inom kort. För att värna om integriteten strömmas ljudet krypterat och endast under aktiva sessioner. Enligt företaget får OpenAI, som tillhandahåller röstmodellen, bara tillgång till ljudet i realtid för att kunna generera svar. Ingen data lagras efter att samtalet har avslutats.

Röstfunktionen är valfri och går att stänga av helt i inställningarna för Duck.ai. Om funktionen inaktiveras skickas ingen ljuddata förrän användaren själv väljer att slå på den igen.

Apple Intelligence kan bli framtidens hjälpsystem

Apple Intelligence kan bli framtidens hjälpsystem

Modern mjukvara handlar idag ofta mer om att lista ut hur man gör något än att faktiskt utföra arbetet. Trots årtionden av erfarenhet tvingas vi ofta lämna appar för att söka på webben, läsa forumtrådar eller se instruktionsfilmer på Youtube. Ju kraftfullare en app är, desto svårare blir den ofta att navigera.

Apple har under årtionden försökt lösa detta med system som Balloon Help, Apple Guide och Help Viewer. Inget av dem har dock lyckats fullt ut, främst för att de krävt för mycket manuellt arbete av utvecklarna eller snabbt blivit utdaterade. Nu har Apple Intelligence och Siri chansen att förvandla systemet till en pedagogisk partner som förklarar mjukvaran i sitt sammanhang.

Tre källor till kunskap

För att Siri ska bli en pålitlig guide bör tjänsten dra information från tre olika nivåer:

  • Utvecklarens dokumentation: Den mest auktoritativa källan som beskriver hur appen är tänkt att fungera.

  • Strukturell information: Data som redan finns i macOS, såsom menyer, kortkommandon och tillgänglighetsetiketter. Detta kan besvara frågor om var en funktion finns.

  • Användargenererad kunskap: Blogginlägg och forum där användare beskriver faktiskt användande, dolda begränsningar och smarta arbetsflöden som sällan nämns i officiella manualer.

Förklaring istället för handling

Det pratas ofta om AI-agenter som ska utföra uppgifter åt oss, men det är både komplext och riskfyllt. En säkrare och mer värdefull roll för Siri är att fokusera på förklaring. Genom att lära användaren hur en funktion fungerar byggs en mental modell som gör att vi kan använda verktyget mer effektivt nästa gång. Om en AI-agent gör fel kan det få katastrofala följder, men om Siri ger en ofullständig förklaring kan användaren enkelt anpassa sig och leta vidare.

AI som hjälpmedel för utvecklare

Det största hindret har alltid varit att utvecklare saknar tid att skriva bra dokumentation. Här kan Xcode och AI spela en nyckelroll. Genom att automatiskt generera utkast baserat på appens kod och struktur, och sedan ställa riktade frågor till utvecklaren, kan dokumentationen skapas med minimal ansträngning. Denna information kan sedan användas både lokalt av Siri och publiceras som sökbar webbhjälp.

Genom att göra hjälp till en integrerad del av operativsystemet kan Apple Intelligence minska friktionen i vardagen. Siri behöver inte vara en personlig assistent som vet allt om ditt privatliv – det räcker att hon är den där smarta kompisen som kan förklara hur programmen på din skärm faktiskt fungerar.

Från ballonger till AI: Apples hjälpsystem genom åren
  • 1991: Balloon Help (System 7) Apples första stora försök. Genom att hålla muspekaren över knappar och menyer dök små textbubblor upp som förklarade funktionen. Det blev dock snabbt rörigt och krävde att utvecklare skrev omfattande texter för varje liten detalj.

  • 1994: Apple Guide (System 7.5) Ett steg mot interaktiva guider. Systemet ritade röda cirklar runt knappar på skärmen för att visa användaren steg-för-steg hur man utförde en specifik uppgift.

  • 1998: Help Viewer (Mac OS 8.5) Ett nytt system baserat på HTML. Det gjorde hjälpsidorna sökbara och lade grunden för den hjälpmeny som vi ser i macOS än idag.

  • 2000-tal: Help Books och Webben Under Mac OS X-eran flyttade mycket av hjälpen in i appar som ”Help Books”. Men i takt med att Google och Youtube blev bättre, började användare söka hjälp utanför datorn istället för i de inbyggda systemen.

  • 2024: Siri och macOS Sequoia Siri börjar få grundläggande kunskaper om Apples egna guider och appar, men begränsas fortfarande av att hon inte förstår tredjepartsprogram eller hur användare faktiskt använder mjukvaran i praktiken.

  • Framtiden: Apple Intelligence Nästa steg är ett system som inte bara läser manualer, utan förstår appens struktur och kombinerar utvecklarens instruktioner med användarnas samlade erfarenheter från webben.

Läs mer

Siri rustas upp med teknik från Google Gemini – precis som väntat

 

Apple skalar om sin AI-satsning – Siri tar över huvudrollen

 

Apple skrotar gamla Siri: Vårens jätteuppdatering bygger på Google Gemini

 

 

ByteDance nya AI-video sätter press på Meta och Google

ByteDance nya AI-video sätter press på Meta och Google

TikTok kan stå inför ett stort kliv inom generativ AI. Moderkoncernen ByteDance har visat upp sitt senaste verktyg för videogenerering, Seedance 2.0, som levererar resultat med hög realism.

Verktyget befinner sig just nu i betastadiet och är tillgängligt för utvalda användare på plattformen Jimeng AI, som också ägs av ByteDance. Till skillnad från många tidigare modeller ger Seedance 2.0 mer livstrogna rörelser och slipper den flytande känsla som ofta förknippas med AI-genererad video.

Det finns ännu inga officiella besked om när tekniken når TikTok, men det ses som ett naturligt nästa steg. Under det senaste året har TikTok redan rullat ut en mängd AI-funktioner, bland annat för översättning, bild-till-video och anpassade avatarer.

Miljardkampen om AI-infrastruktur

Den största utmaningen för generativ AI är att få ekonomi i projekten. Kostnaderna för att bygga den nödvändiga infrastrukturen är enorma:

  • Meta: Planerar att satsa 600 miljarder dollar på datacenter de kommande tre åren.

  • OpenAI: Prognostiserar investeringar på 1,4 biljoner dollar över åtta år.

För att sätta summorna i perspektiv landade Metas totala intäkter för 2025 på drygt 200 miljarder dollar. Det krävs alltså en massiv efterfrågan från konsumenterna för att dessa projekt ska bli lönsamma. Det är också anledningen till att både X och Meta nu skyndar på sina videomodeller för att locka fler betalande prenumeranter.

Geopolitisk spänning

Utvecklingen av Seedance 2.0 tyder på att kinesiska utvecklare kan vara på väg att gå om amerikanska bolag inom AI-utveckling. Detta lär inte uppskattas av den amerikanska regeringen, som nyligen presenterat planer på att undanröja hinder för inhemsk AI för att säkra sitt ledarskap.

En intressant fråga är hur detta påverkar TikTok i USA. Eftersom den amerikanska grenen numera är en separat enhet med en ledning som godkänts av Trump-administrationen, är det oklart om de ens vill implementera funktioner som kan kasta en skugga över USA:s egen AI-utveckling.

AI-kapplöpningen är global och Seedance 2.0 är en tydlig påminnelse om att tekniken utvecklas i snabb takt i alla regioner.

Källa: Social Media Today

Läs mer

TikToks nya ägare utökar datainsamlingen

 

Teknikjättar inför rätta i historiskt mål om barns hälsa

 

EU-kommissionen: TikToks design är olagligt beroendeframkallande

 

 

Studie: Medicinska råd från AI-bottar är opålitliga och riskfyllda

Studie: Medicinska råd från AI-bottar är opålitliga och riskfyllda

AI-robotar ger ofta felaktiga och inkonsekventa medicinska råd som kan innebära stora risker för användare. Det visar en ny studie från universitetet i Oxford. Forskningen klargör att personer som söker vårdtips via AI får en blandning av bra och dåliga svar, vilket gör det nästan omöjligt att avgöra vilken information som går att lita på.

Enligt en undersökning från november 2025 använder nu mer än var tredje invånare i Storbritannien AI som stöd för sin psykiska hälsa eller sitt välmående. Dr Rebecca Payne, medicinskt ansvarig för studien, varnar för att det kan vara direkt farligt att låta en chattbot ställa diagnos utifrån symptom.

Svårt att veta vad man ska fråga

I studien deltog 1 300 personer som fick olika scenarier, till exempel svår huvudvärk eller extrem trötthet efter en förlossning. Resultaten visar på flera problem:

  • Otydliga frågor: Användare vet ofta inte exakt hur de ska formulera sina frågor för att få korrekta svar.

  • Slumpmässiga resultat: Svaren varierar kraftigt beroende på ordvalet i frågan.

  • Brist på sammanhang: Folk utelämnar ofta detaljer i sina frågor, vilket leder till att AI-modellen tvingas gissa mellan olika diagnoser.

Dr Adam Mahdi, en av forskarna bakom studien, poängterar att även om AI har tillgång till medicinsk information så misslyckas tekniken med att ge användbara råd när mänskliga nyanser försvinner.

Specialiserade modeller på väg

Trots kritiken pekar experter på att utvecklingen går framåt. Under början av 2026 lanserade både OpenAI och Anthropic specialiserade versioner av sina verktyg: ChatGPT Health och Claude for Healthcare. Dessa är byggda för att bättre kunna hantera medicinsk data och journaler under striktare regler.

Målet för framtiden är att skapa säkrare system med tydliga nationella regleringar och medicinska riktlinjer, snarare än att förlita sig på generella modeller för känsliga hälsofrågor.

Källa: BBC

Reklam rullas ut i ChatGPT – så påverkas du

Reklam rullas ut i ChatGPT – så påverkas du

Nu börjar OpenAI testa annonser direkt i ChatGPT. Beskedet kommer bara timmar efter att konkurrenten Anthropic under Super Bowl valt att profilera sig med budskapet att de aldrig kommer att visa reklam i sina tjänster.

OpenAI beskriver detta som en inledande testperiod snarare än en fullskalig lansering. Syftet är att utvärdera hur användarna reagerar på sponsrat innehåll innan formatet spikas helt.

Här dyker annonserna upp

Reklamen kommer i ett första skede att visas för användare som har gratiskonton eller prenumerationen ChatGPT Go. De dyrare alternativen, ChatGPT Plus och Pro, förblir reklamfria tills vidare.

OpenAI har satt upp följande ramar för hur reklamen ska fungera:

  • Placering: Annonserna visas längst ner i svaren från chattboten.

  • Relevans: Innehållet baseras på den aktuella konversationen. Om du frågar om löparskor kan ett sponsrat förslag dyka upp under svaret.

  • Tydlighet: All reklam ska vara tydligt märkt och separerad från det vanliga svaret. Användare kan klicka för att se varför de ser annonsen eller välja att dölja den.

Skydd för känsliga ämnen

OpenAI betonar att reklamen inte ska påverka själva svaren som AI-modellen genererar. Företaget lovar också att inga annonser ska visas för användare under 18 år. Dessutom är känsliga kategorier som politik, hälsa och psykiskt välmående helt undantagna från annonsering.

Läs mer

ChatGPT blir allt mera oförutsägbar och hopplös att arbeta med

 

ChatGPT drabbat av omfattande driftstörningar

 

ChatGPT och AI-botar tar plats i CarPlay