Nyheter24
Annons

Nya bedrägeriet på ChatGPT – så lurar fakesidorna dig

Publicerad: 27 dec. 2025, kl. 19:32
Händer skriver på en dator till vänster. ChatGPT:s logga på en skärm till höger.
Så lurar den nya angreppsmetoden på olika AI-sidor. Foto: Viktoria Bank/TT & Kiichiro Sato
Läs mer från Nyheter24 - vårt nyhetsbrev är kostnadsfrittPrenumerera

Cyberhot utvecklas i takt med att AI-verktyg blir allt mer populära. 

Säkerhetsforskare varnar för en ny typ av angrepp där hackare använder social ingenjörskonst och trovärdigt utseende på AI-tjänster som ChatGPT för att få användare att installera skadlig kod på sina enheter, rapporterar Dark Reading.

Ser ut som legitima AI-hemsidor

Attacken kallas för "ClickFix", där angripare kombinerar SEO-förgiftning med legitima AI-domäner för att locka användare till webbplatser som ser ut som officiella AI-tjänster. 

På hemsidorna kan besökaren uppmanas att ladda ner en falsk AI-installerare som i själva verket innehåller lösenordsstöld, rapporterar SC Media.

"ClickFix" är när cyberattackerna görs via länkar som ser ut som legitima AI-sidor. Bild:Kiichiro Sato/TT

Delar chattar för att stjäla information

En liknande metod utnyttjar funktionen att dela chattar från AI-plattformar. 

Kaspersky lyfter hur cyberbrottslingar postat delade konversationer som verkar ofarliga, men som i själva verket innehåller steg-för-steg-instruktioner som leder till att ett "infostealer-program" installeras på offrets dator. 

Så skyddar du dig mot bedrägerierna

Experter påpekar att dessa bedrägerier bygger på användarens förtroende för AI-verktyg och deras visuella trovärdighet. 

För att skydda sig rekommenderas användare att alltid kontrollera att programvaran kommer från officiella källor, vara vaksamma mot länkar i annonser eller e-post, och ha uppdaterad säkerhetsprogramvara. 

Kommentarer

Annons
Annons
Annons
Annons
Annons
Nya bedrägeriet på ChatGPT – så lurar fakesidorna dig