Blogg
Deepfakes ställer krav på din vaksamhet – Artikel i Aktuell Säkerhet
Är din organisation redo att hantera nästa generations cyberhot? En ny form av AI-baserat bedrägeri, kallad deepfakes, revolutionerar hur cyberbrottslingar manipulerar sina offer. Genom att återskapa både rösten och utseendet hos betrodda personer försöker angripare vilseleda dig och få dig att agera enligt deras agenda.
Är du förberedd på att stå emot en ny typ av cyberhot? En ny typ av AI-bedrägeri, kallat deepfakes, förfinar sättet på vilket cyberbrottslingar lurar sina offer. Genom att imitera både röst och bild av personer du litar på försöker hackare lura dig att göra som de vill. Till exempel, tänk dig ett videomöte där din vd ber om en pengaöverföring. Du tror att du pratar med din chef, men i själva verket är det en digital kopia av din chef.
Läs vår tidigare säkerhetschefs artikel om deepfake i Aktuell Säkerhet.
Emanuel Lipschütz, cybersäkerhetschef på Conscia Sverige, delar med sig av en skrämmande berättelse. Ett företag i Hong Kong förlorade 25 miljoner dollar till följd av sofistikerat deepfake-bedrägeri. Deepfakes, som reproducerar både ljud och utseende av till synes verkliga individer, ökar i trovärdighet och alltmer tillgängliga även för dem utan teknisk bakgrund.
Microsoft släpper verktyget VASA-1. Generera en trovärdig avatar från en stillbild och en audiofil.
För att skydda sig mot dessa sofistikerade hot krävs nya försvarsmetoder. Bland annat föreslås flerfaktorsautentisering (MFA), anpassade processer och rutiner. Denna kapprustning mellan cyberbrottslingar och försvarare av nätverkssäkerhet pekar mot en framtida där avancerade AI-lösningar är avgörande för att stå emot angrepp.
Lära dig mer om hur du kan skydda dig och ditt företag mot dessa hot, och få insikter i hur du kan använda AI för att förstärka ditt försvar. Så följ länken till den fullständiga artikeln. Uppdatera dina kunskaper och förbered dig på framtidens säkerhetsutmaningar med vårt nyhetsbrev.
Relaterat