Apple testar ny AI‑chatt i Support‑appen

Apple testar ny AI‑chatt i Support‑appen

Apple har inlett ett begränsat test av en AI‑driven chattfunktion kallad Support Assistant i Support‑appen. Funktionen är tillgänglig för ett urval användare via en ny flik märkt “Chat” och beskrivs som en tidig förhandsversion med möjlighet att lösa enklare supportärenden. Om tjänsten inte räcker till kan användaren välja att kopplas vidare till en Apple‑expert.

När en testanvändare öppnar chattfunktionen möts hen av en informationsskärm som varnar för att Support Assistant är experimentell. Användaren uppmanas att kontrollera viktig information själv, eftersom chattboten kan göra misstag. Apple meddelar också att data från användningen kan delas med företagets partners för att förbättra tjänsten.

Enligt uppgifter bygger funktionen på generativa AI‑modeller, men det är ännu oklart om dessa är utvecklade av Apple själva eller kommer från tredjepart. Målet är att automatisera svar på vanliga frågor om Apple‑produkter, inte att diskutera bredare ämnen eller framtida teknik.

Före detta Apple‑anställda har beskrivit funktionen som ett möjligt sätt att minska trycket på supporten. Om enklare problem kan lösas direkt i appen kan fler fysiska butiksmöten bli mer relevanta. Samtidigt finns det risker för felaktiga svar och behov av tydlig märkning för att undvika missförstånd.

Det finns ännu ingen uppgift om när – eller om – funktionen kommer att lanseras brett. För närvarande är det en begränsad testfunktion med målet att effektivisera användarupplevelsen.

Källa: 9to5Mac

OpenAI förbereder lansering av GPT‑5

OpenAI förbereder lansering av GPT‑5

Nästa generation av den populära språkmodellen ChatGPT ser ut att vara nära förestående. OpenAI har publicerat en teaser inför ett kommande evenemang som tydligt antyder att en ny version är på väg.

I bilden som delats på företagets sajt och i sociala medier används formuleringen ”LIVE5TREAM THURSDAY 10 AM PT”, där bokstaven S har ersatts med en femma – något som tolkats som ett direkt syftande på GPT‑5.

Det har länge spekulerats i att OpenAI planerar att lansera GPT‑5 under sommaren. Enligt Reuters pågår interna förberedelser, och lanseringen väntas ske inom kort. Den nya versionen av modellen ska enligt uppgifterna ha förbättrad förmåga att analysera, resonera och svara med större precision jämfört med tidigare versioner.

OpenAIs vd Sam Altman har tidigare sagt att GPT‑5 ska kombinera flera tekniker och bli både mer transparent och kraftfull än GPT‑4. Samtidigt har han uttryckt oro för vad tekniken kan innebära på sikt. I en intervju med indiska Times of India sade Altman att han känt sig ”värdelös” efter att ha testat GPT‑5 – inte på grund av brister i modellen, utan för att dess kapacitet är så långtgående att den väcker existentiella frågor.

Vad den nya versionen konkret innebär för användare och utvecklare återstår att se, men enligt flera bedömare kommer GPT‑5 att innebära ett steg mot ännu mer autonoma och självlärande AI‑system.

Källa: 9to5Mac

Elon Musks AI skapade fejkade nakenbilder på Taylor Swift – utan att bli tillfrågad

Elon Musks AI skapade fejkade nakenbilder på Taylor Swift – utan att bli tillfrågad

Elon Musks AI-tjänst Grok hamnar åter i centrum för en växande kontrovers kring artificiell intelligens och säkerhet. Enligt rapporter har Grok genererat påhittade nakenbilder på världsstjärnan Taylor Swift – utan att användarna aktivt efterfrågat det.

Avslöjandet har lett till kraftig kritik mot hur Musk och hans bolag xAI hanterar skydd mot missbruk och skadligt innehåll i tjänsten.

Bilder skapades utan förfrågan

Enligt uppgifter började Grok under vissa förhållanden visa manipulerade och explicit sexuella bilder av Taylor Swift. Det mest anmärkningsvärda är att detta kunde ske även om användaren inte bad om det. Händelsen beskrivs av kritiker som ännu ett exempel på hur AI-system kan skapa integritetskränkande material som riskerar att spridas snabbt på nätet.

Taylor Swift har sedan tidigare varit utsatt för AI-genererade falska nakenbilder. Händelsen med Grok visar enligt flera experter att problemet fortsätter växa och att tekniken inte är under tillräcklig kontroll.

”Spicy mode” öppnar för risker

Samtidigt som kritiken växer marknadsför Musk och xAI en funktion kallad “spicy mode”. Den lyfts fram som ett sätt att göra AI:n mer frispråkig och underhållande, men enligt användare och experter innebär det också en risk för att tjänsten skapar olämpligt och skadligt innehåll.

TechSpot rapporterar att “spicy mode” redan används av många och att det i praktiken gör AI:n mer villig att svara på sexuella eller kontroversiella frågor. Kombinationen av svaga innehållsfilter och denna funktion skapar enligt kritiker ett klimat där AI:n kan generera integritetskränkande material utan att användarna ens frågar om det.

xAI saknar skyddsmekanismer

Från xAI:s sida har det inte presenterats några tydliga bevis för att företaget kan förhindra liknande incidenter i framtiden. Experter menar att systemet saknar robusta skyddsmekanismer som stoppar AI:n från att generera explicit innehåll på verkliga personer.

Flera konsumentorganisationer lyfter fram att det finns ett juridiskt och etiskt vakuum kring AI-genererat material, där ansvaret ofta hamnar på plattformarna själva att sätta gränser. Kritiker anser att Musk inte tagit detta ansvar på allvar, trots tidigare skandaler kring Grok och dess hantering av känsliga ämnen.

Musk försvarar sig

Elon Musk själv har tonat ner kritiken och sagt att Grok är byggt för att vara ”mer ärlig och underhållande” än andra AI-tjänster. Han hävdar att användarna själva får välja hur de interagerar med systemet och att “spicy mode” endast aktiveras frivilligt.

Det finns dock inget som tyder på att funktionen stoppar AI:n från att gå för långt eller generera fejkade bilder utan förfrågan. För Taylor Swift och andra kändisar innebär detta att de riskerar att drabbas igen, och för användarna återstår frågan om de kan lita på Grok och andra AI-tjänster framöver.

Källor:

Stämning: Meta piratkopierade porr för att träna AI

Stämning: Meta piratkopierade porr för att träna AI

Meta anklagas för att under flera års tid ha laddat ner och aktivt delat upphovsrättsskyddat pornografiskt material via BitTorrent. Enligt Strike 3 Holdings, som har lämnat in en stämningsansökan, användes metoden för att bygga upp stora datamängder som träningsunderlag till företagets AI-modeller.

Företaget påstår att Meta medvetet spred Strike 3:s material för att uppfylla torrentprotokollets krav och på så sätt snabbare kunna ladda ner annan data som behövdes för AI-utvecklingen.

Stämningen är en del av en pågående juridisk process kring Metas hantering av upphovsrättsskyddat material. Företaget har sedan tidigare stämts för att ha använt piratkopierade böcker i AI-modellen Llama, bland annat via databasen Library Genesis. Interna dokument och rättshandlingar pekar på att detta skedde med kännedom och godkännande på högsta ledningsnivå.

Meta bestrider anklagelserna och hävdar att AI-träningen omfattas av undantaget “fair use”. Bolaget menar att enskilda verk bidrar marginellt till modellernas funktion och därför inte orsakar ekonomisk skada för rättighetsinnehavarna. Domstolar i tidigare fall har delvis gått på Metas linje, men domare har samtidigt betonat att avgörandena berott på brister i de juridiska argumenten snarare än ett definitivt fastslående av rättsläget.

Källor:

Ars Technica

ChatGPT rusar mot en ny AI-era – når 700 miljoner användare i veckan

ChatGPT rusar mot en ny AI-era – når 700 miljoner användare i veckan

Inför lanseringen av nästa generation AI-modell rapporterar OpenAI att ChatGPT nu har över 700 miljoner aktiva användare varje vecka. Det är en kraftig ökning från 500 miljoner i mars och innebär en fyrdubbling jämfört med förra året.

Den nya modellen, GPT-5, väntas släppas inom kort och kommer att ha inbyggda funktioner för resonemang och planering – något som tidigare endast funnits i särskilda varianter av modellen. Målet är att göra mer avancerad AI-funktionalitet tillgänglig direkt för användare utan tekniska hinder.

Samtidigt fortsätter ChatGPT att växa bland företagsanvändare. OpenAI uppger att över fem miljoner företag nu använder plattformen i sin dagliga verksamhet, vilket också lett till kraftigt ökade intäkter. Den årliga återkommande omsättningen från ChatGPT har passerat 13 miljarder dollar.

För att möta efterfrågan har OpenAI tecknat avtal med flera stora aktörer inom datacenter och infrastruktur. Ett leasingavtal med Oracle på 30 miljarder dollar är ett av de största i sitt slag, och expansionen omfattar även nya AI-center i Norge och Förenade Arabemiraten.

Samtidigt hårdnar konkurrensen. Google, Meta, Anthropic och Elon Musks xAI gör stora satsningar för att utmana OpenAI, både tekniskt och kommersiellt.

Lanseringen av GPT-5 markerar nästa steg i kapplöpningen om att forma framtidens AI – och frågan är hur långt användningen kan växa när tekniken blir allt mer integrerad i vardagen.

Källa: VentureBeat

Cloudflare avslöjar hur AI-sökmotor smyger förbi spärrar för att stjäla data

Cloudflare avslöjar hur AI-sökmotor smyger förbi spärrar för att stjäla data

Cloudflare anklagar AI-sökmotorn Perplexity för att medvetet bryta mot webbens regler för datainsamling. I en rapport beskriver Cloudflare hur Perplexity använder avancerade tekniker för att kringgå webbplatsers försök att stoppa automatisk skrapning.

Företaget hävdar att Perplexity först använder sina egna, öppet deklarerade användaragenter, men när dessa blockeras byter systemet identitet och efterliknar vanliga webbläsare som Google Chrome på macOS. Samtidigt roterar man IP-adresser och nätverksleverantörer för att göra det svårare att spåra trafiken.

Cloudflare upptäckte metoden genom att sätta upp särskilda testdomäner där robotar uttryckligen förbjöds i robots.txt. När Perplexity kort därefter kunde ge detaljerade svar som byggde på innehållet på dessa sidor drog Cloudflare slutsatsen att företaget kringgår spärrarna. Enligt Cloudflare är detta en tydlig signal om att Perplexity inte bara samlar in data öppet, utan även i hemlighet trots aktiva blockeringar.

Dolt beteende

Som en direkt följd av upptäckten har Cloudflare tagit bort Perplexity från sin lista över verifierade bots – en lista som annars ger pålitliga aktörer fördelar som bättre tillgång till nätverk och lägre risk för felaktig blockering. Cloudflare har även infört nya skyddsmekanismer för att stoppa liknande dolt beteende från andra aktörer.

Perplexity avvisar dock kritiken. Företaget menar att deras system endast hämtar information när användare gör en sökning och att de inte använder traditionella metoder för att skapa index eller lagra data för framtida AI-träning. Enligt Perplexity rör det sig snarare om missförstånd eller ett PR-trick från Cloudflare.

Konflikt

Branschexperter ser situationen som en del av en större konflikt mellan AI-plattformar och innehållsägare på webben. Många publicister och företag försöker skydda sitt material från att användas gratis i AI-tjänster, samtidigt som AI-aktörerna hävdar att de måste kunna hämta information för att kunna erbjuda konkurrenskraftiga tjänster. Händelsen väcker frågor om hur framtida regleringar ska utformas och var gränsen går mellan legitim informationshämtning och otillåten dataskrapning.

Källa:

Cloudflare