AI-bedrägerier är ett växande problem men det finns sätt att skydda sig.
AI-bedrägerier är ett växande problem men det finns sätt att skydda sig. - Foto: Caisa Rasmussen / TT, Unsplash

Så skyddar du dig mot AI-bedrägerier: "Svårt att stå emot"

Röstkloner av familj och bekanta är en ny typ av AI-bedrägeri. De är svåra att upptäcka, men går att skydda sig mot med rätt knep.


Om någon i din familj ringer och ber om pengar är det bara en swish bort, men var vaksam på vem det faktiskt är på andra änden. Även om det låter exakt som din dotter, eller ditt barnbarn, kan det vara en AI-klon, som någon annan använder för att bedra dig.

I en artikel från The Independent, detaljerar advokaten Gary Schildhorn hur han fick ett samtal från sin son. Panikslaget förklarade sonen att han krockat med sin bil, och behövde att Gary betalade borgen. Det var när han han blev ombedd att skicka pengarna via Bitcoin som Gary blev misstänksam. Han ringde sin son på FaceTime och insåg att han nästan blivit ett offer för ett AI-bedrägeri. Sonen var nämligen inte i häktet och hade inte krockat med sin bil. 

Använde AI-genererad konst i marknadsföring: "Jag är färdig"

"Vi står inför ett vägskäl"

Det här är ett exempel på en ny typ av bedrägeri, i form av en AI-genererad röstklon av dina nära och kära. I en artikel på Stöldskyddsföreningen, SFF:s tjänst Säkerhetskollen, berättar Jan Olsson, kriminalkommisarie och talesperson vid polisens nationella it-brottscentrum att AI-relaterade brott ett växande problem. 

– Vi ser redan att det har startat, med allt från sofistikerade phishingmail, påverkanskampanjer och utpressning med fejkade porrfilmssnuttar där offrets ansikte mycket väl integrerats i en annan persons kropp. Vi står inför ett vägskäl där allt hänger på hur vi agerar.

Enligt Olsson har brottet med en AI-genererad röstklon begåtts ett fåtal tillfällen i Sverige och endast mot företag.

Översvämning av AI-genererade böcker: "Måste oroa oss"

Svårt att upptäcka

Det kan vara betydligt svårare att upptäcka AI-bedrägerier och att urskilja sanning från påhitt, enligt it-säkerhetsexperten David Jacoby:

– Phishingmejl i framtiden kanske består av att du först får ett sms av en kompis och sedan ett videosamtal där kompisen ber dig att klicka på länken de nyss skickade, och att det är bråttom. Då kan det vara svårt att stå emot, säger han till SSF.

OpenAI till New York Times efter stämningen: "Manipulerat"

Så kan du skydda dig

Jacoby menar att det är bra att kunna identifiera personen du pratar med, det kan till exempel vara genom ett kodord, eller att ställa kontrollfrågor. Du kan också ställa motfrågor för att avslöja om det är en AI-klon som du pratar med.

– Oftast består rösten av förinspelade meddelanden. Jag tror vi är långt ifrån ett scenario där vi kan ha en lång konversation med en fejkad röst som har förmåga att lyssna eller svara.

Här är ytterligare tre tips på hur du kan minska risken för att bli offer för ett AI-bedrägeri från Säkerhetskollen:

  • Var försiktig och kom ihåg att den du pratar med kanske inte är på riktigt. Om du blir uppringd och uppmanad att utföra något, gör inte detta.
  • Om du anar att det är något som inte stämmer, lägg på luren och ring hellre upp personen ifråga.
  • Lämna aldrig ut personliga uppgifter, logga inte in på uppmaning av någon annan och betala aldrig något utan att tänka efter.

Läs mer: OpenAI släpper ny tjänst för företag – det här gäller

AI
/
/
/
De senaste nyheterna direkt i din inkorg!