OpenAI lanserar nu GPT-5.3 Instant, en ny modell i GPT-5.3-familjen. Enligt företaget ska modellen vara mindre benägen att moralisera i sina svar.
Bakgrunden är kritik mot den tidigare modellen GPT-5.2 Instant. Användare upplevde att modellen ibland vägrade svara på frågor som egentligen gick att besvara på ett säkert sätt. I andra fall blev svaren överdrivet försiktiga eller inleddes med långa, moraliserande förklaringar, särskilt i känsliga ämnen.
I ett blogginlägg skriver OpenAI att den nya modellen ska minska sådana situationer. Om en fråga går att besvara på ett säkert sätt ska modellen nu ge ett direkt och användbart svar, utan långa förbehåll eller moraliserande inledningar.
Debatten om AI och principer
Lanseringen kommer samtidigt som OpenAI hamnat i debatt efter ett avtal med USA:s försvarsdepartement om AI-tjänster. Konkurrenten Anthropic valde nyligen att avstå från ett liknande samarbete. Bolaget motsatte sig bland annat att ta bort skyddsmekanismer i sina modeller för att möjliggöra utveckling av autonoma vapensystem eller övervakning av medborgare.
Beslutet väckte uppmärksamhet och kritik från vissa håll, men har också stärkt Anthropics popularitet. En talesperson uppgav nyligen att företagets AI-app Claude blivit den mest nedladdade appen i Google Play i USA. Samma app toppade samtidigt listan över gratisappar i den amerikanska App Store.
OpenAI:s vd Sam Altman kommenterade situationen och sade att företaget planerar att ändra sitt ursprungliga avtal med försvarsdepartementet. Syftet är att uttryckligen förbjuda avsiktlig spårning, övervakning eller kartläggning av amerikanska medborgare, inklusive genom användning av kommersiellt insamlad persondata.
Altman medgav också att samarbetet kunde uppfattas som ogenomtänkt.
Han sade att företaget försökte dämpa en upptrappad situation och undvika ett värre utfall, men att initiativet i stället kunde se opportunistiskt och slarvigt ut.
Färre hallucinationer
OpenAI uppger också att GPT-5.3 Instant ska göra färre faktamässiga misstag, något som i AI-sammanhang ofta kallas hallucinationer.
Företaget har gjort två utvärderingar av modellen. Den ena fokuserade på områden där felaktiga svar kan få verkliga konsekvenser, exempelvis juridik, medicin och ekonomi. Den andra analyserade mer vardagliga samtal i ChatGPT där användare själva markerat felaktiga påståenden.
Resultaten visar enligt OpenAI att hallucinationer minskar med 26,8 procent när modellen använder webbsökning och med 19,7 procent när den enbart använder sin interna kunskap. I den andra utvärderingen minskade felen med 22,5 procent vid webbanvändning och med 9,6 procent utan internet.
Modellen ska också vara bättre på att sätta information i sammanhang när den söker på webben och på att skriva mer sammanhängande texter.
Bättre samtalspartner – men inte bäst i allt
Samtidigt visar OpenAI:s egna tester att modellen i vissa av företagets interna mätningar presterar något sämre än föregångaren GPT-5.2 Instant.
I tester som mäter hur modellen hanterar otillåtet innehåll ligger GPT-5.3 Instant i genomsnitt över GPT-5.1 Instant men under GPT-5.2 Instant. I vissa kategorier, bland annat sexuellt innehåll och frågor om självskada, visar modellen något sämre resultat än tidigare versioner.
För andra typer av innehåll är skillnaderna små eller statistiskt obetydliga, enligt OpenAI.
GPT-5.3 Instant är tillgänglig från och med nu för utvecklare och användare av ChatGPT. Den tidigare modellen GPT-5.2 Instant kommer att finnas kvar för betalande användare fram till den 3 juni 2026.
0 kommentarer