Google Translate har drabbats av allvarliga säkerhetsbrister efter att tjänsten i slutet av 2025 gick över till att drivas av Gemini-modeller. Användare kan nu helt kringgå översättningsfunktionen genom så kallade prompt injection-attacker där instruktioner bäddas in direkt i textfältet.
Genom att skriva en fråga på ett främmande språk och lägga till en engelsk instruktion underst kan användare få tjänsten att svara på frågor istället för att översätta dem. Upptäckten gjordes först av en användare på Tumblr och har sedan spridits vidare.
Säkerhetsforskare har visat att sårbarheten sträcker sig långt bortom enkla frågor. Det har varit möjligt att lura Google Translate att generera farligt innehåll, som instruktioner för att framställa droger och skadlig kod. I ett dokumenterat exempel gav tjänsten detaljerade instruktioner för tillverkning av metamfetamin istället för att utföra den begärda översättningen.
Google bytte ut de underliggande systemen i Google Translate till Gemini i december 2025. Det är inte officiellt bekräftat exakt vilken modell som används, även om systemet självt ibland uppger att det rör sig om Gemini 1.5 Pro.
Sårbarheten understryker ett grundläggande problem inom AI-säkerhet. Inte ens de största teknikbolagen har lyckats skapa ett tillförlitligt skydd mot attacker i naturligt språk, vilket förblir en av de största utmaningarna för moderna språkmodeller.
Källa: Lessiswrong

0 kommentarer