Google avslöjar hackare som missbrukar Gemini AI
Google har identifierat ett flertal statsstödda hackargrupper som försöker utnyttja Geminis AI-plattform för skadliga syften, bland annat för att hjälpa till med utvecklingen av skadlig kod. Teknikjätten rapporterar dock att dessa ansträngningar inte har resulterat i betydande cyberhot, vilket betonar att AI fortfarande är ett verktyg snarare än en spelväxlare för cyberbrottslingar.
Enligt Googles resultat har hackare från Iran, Nordkorea, Kina och Ryssland utnyttjat Gemini för uppgifter som att översätta innehåll, förfina nätfiskeattacker och skriva datorkod. Företaget spårade denna aktivitet till över 10 iranska hackargrupper, 20 kinesiska regeringsstödda grupper och nio nordkoreanska hotaktörer.
"Iranska APT-aktörer (avancerade ihållande hot) var de tyngsta användarna av Gemini och använde det för forskning om försvarsorganisationer, sårbarhetsanalys och skapande av innehåll för desinformationskampanjer", noterade Google i ett blogginlägg på onsdagen.
Trots dessa försök vidhåller Google att Gemini främst har försett dessa aktörer med produktivitetsförbättringar snarare än direkta hackingfunktioner. "För närvarande använder de främst AI för forskning, felsökning av kod samt för att skapa och lokalisera innehåll", konstaterade företaget.
Bildkredit: Jaque Silva | NurPhoto
Google lyfte också fram de begränsningar som hackare mötte när de försökte använda Gemini för mer avancerade skadliga uppgifter. Medan AI-assistenten hjälpte dem att förstå komplexa ämnen och generera grundläggande kod, förhindrade dess säkerhetsskydd missbruk av cyberattacker. Försök att utnyttja Gemini för avancerade nätfisketekniker, kodning av skadlig programvara eller kringgå Googles säkerhetsåtgärder misslyckades.
"Vissa skadliga aktörer försökte utan framgång att be Gemini om vägledning för att missbruka Googles produkter, till exempel avancerade nätfisketekniker för Gmail, hjälp med att koda en Chrome infostealer och metoder för att kringgå Googles verifieringsmetoder för skapande av konton", rapporterade företaget. "Dessa försök var inte framgångsrika. Gemini producerade inte skadlig kod eller annat innehåll som rimligen skulle kunna användas i en framgångsrik skadlig kampanj."
Google erkände dock att AI-verktyg som Gemini kan påskynda cyberhotaktörers arbetsflöden, så att de kan fungera mer effektivt och i större skala. Till exempel använde en iranskbaserad propagandaoperation Gemini för att förbättra översättningar, vilket säkerställde att deras desinformationskampanjer nådde en bredare publik. Samtidigt använde sig hackare med koppling till Nordkorea av chatboten för att skriva personliga brev och samla in råd om jobbsökande på LinkedIn - vilket potentiellt kan underlätta deras ansträngningar att säkra IT-positioner på distans hos amerikanska företag, vilket är en växande oro bland federala utredare.
"Gruppen använde också Gemini för att få information om utbyten av anställda utomlands. Många av ämnena skulle vara vanliga för alla som undersöker och ansöker om jobb", konstaterade Google.
Googles resultat ekar liknande upptäckter av OpenAI. För ett år sedan upptäckte OpenAI flera statligt sponsrade grupper som försökte missbruka ChatGPT. Dess utredning avslöjade dock att dessa hackare främst använde chatboten för mindre produktivitetsökningar snarare än att utföra avancerade cyberattacker.
Som svar på dessa hot har Google förstärkt sina AI-säkerhetsprotokoll. Företaget testar kontinuerligt Geminis försvar för att förhindra missbruk och samarbetar med brottsbekämpning när det behövs. "Vi undersöker missbruk av våra produkter, tjänster, användare och plattformar, inklusive skadliga cyberaktiviteter av statligt stödda hotaktörer, och arbetar med brottsbekämpning när det är lämpligt", uppgav Google.
Dessutom arbetar Google aktivt för att störa dessa cyberhot genom att ta bort misstänkta skadliga aktörer från sina plattformar. Denna proaktiva hållning understryker företagets åtagande att hålla sina AI-verktyg säkra samtidigt som man erkänner de föränderliga risker som statsstödda hackare utgör.
Kommentarer