Deepfake-teknik, särskilt i AI-genererade video, håller på att bli ett av de mest oroande cyberhoten. Inom en snar framtid kan denna teknik komma att utnyttjas i stor utsträckning för avancerade och svårupptäckta nätfiskeattacker.
Nyligen visade Reality Defender, ett företag som ägnar sig åt att bekämpa AI-desinformation, hur realistiska dessa deepfakes kan vara. Under ett videosamtal använde Reality Defenders produktchef GitHub-kod och en enda bild för att skapa en deepfake av Elon Musk och mappa den på hans ansikte i realtid. Även om deras AI-detekteringsverktyg omedelbart flaggade förfalskningen, underströk demonstrationen den växande risken med sådan teknik.
Deepfake video är inte bara en teoretisk risk – de har redan använts för att begå bedrägerier
Så sent som 2024 förlorade ett internationellt företag miljoner efter att en anställd lurades av ett deepfake-videosamtal. Till och med högt uppsatta regeringstjänstemän har blivit måltavlor. Till exempel lurades en amerikansk senator nyligen att tro att han talade med en ukrainsk tjänsteman via video. Denna typ av sofistikerade bedrägerier ökar snabbt, vilket utsätter företag, regeringar och vanliga individer för risker.
Ben Colman, vd för Reality Defender, varnar för att det bara är en tidsfråga innan deepfake-videobedrägerier blir utbredda. I situationer med höga insatser bör ”seeing should not be believing”, varnar han. Reality Defender arbetar med myndigheter och företag för att utveckla verktyg för realtidsdetektering som kan identifiera AI-drivna imitationer under videosamtal. Vidare är deras mål inte att motsätta sig AI-teknik utan att ta itu med den lilla andel av användningen där deepfakes utgör betydande risker.
Ett plugin för videokonferenssamtal för att upptäcka deepfake video
En av företagets kommande lösningar är ett plugin för Zoom som är utformat för att göra förutsägelser i realtid om huruvida deltagare i videosamtal är verkliga eller deepfakes. Detta verktyg är fortfarande under utveckling och kommer initialt att vara tillgängligt i beta för utvalda kunder. Konceptet markerar dock ett viktigt steg framåt i deepfake-försvaret.
Reality Defender är inte ensamma i denna kamp. Intels FakeCatcher, som lanserades 2022, analyserar blodflödesmönster i ansiktet för att upptäcka deepfakes. Ett verktyg som just nu inte allmänt tillgängligt. Forskare utforskar också nya tillvägagångssätt. Till exempel undersöker ett team på NYU en utmaningsbaserad metod där deltagarna måste klara videotester i CAPTCHA-stil innan de går med i samtal.
Foton på sociala medier räcker för att skapa en deepfake
I takt med att deepfake-tekniken utvecklas blir det lättare att skapa övertygande förfalskningar med minimal data. Govind Mittal, doktorand i datavetenskap vid NYU, konstaterar att till och med en handfull bilder från en plattform som Instagram nu kan räcka för att skapa en deepfake av en person. Detta innebär att hotet inte längre är begränsat till högprofilerade personer med stor exponering på internet. Alla med en onlinenärvaro kan bli en måltavla.
En av de främsta utmaningarna för Reality Defender och liknande företag är behovet av mer data för att förbättra detekteringsnoggrannheten. Colman är optimistisk om att nya partnerskap och samarbeten kommer att hjälpa till att överbrygga denna klyfta. Efter att ElevenLabs kopplades till ett deepfake-röstsamtal som efterliknade USA:s president Joe Biden, samarbetade AI-ljudföretaget med Reality Defender för att förhindra ytterligare missbruk av sin teknik.
Vad kan man göra för att skydda sig?
Precis som med AI-genererade röstbedrägerier är det viktigt att inte överskatta din förmåga att upptäcka deepfakes. Samtidigt utvecklas tekniken så snabbt att de tecken som vi förlitar oss på idag kan bli mindre tillförlitliga i takt med att modellerna förbättras.
Colman gör en jämförelse med e-postsäkerhet: ”Vi förväntar oss inte att min 80-åriga mamma ska flagga ransomware i ett e-postmeddelande, eftersom hon inte är någon expert på datavetenskap.” På samma sätt kan vi i framtiden komma att förlita oss på videoautentiseringsverktyg i realtid för att upptäcka deepfakes under samtal, precis som vi litar på att skannrar med skadlig programvara skyddar våra inkorgar idag.
För tillfället är medvetenhet det bästa försvaret mot deepfake video
Deepfake-detekteringsverktyg för video är fortfarande i ett tidigt utvecklingsskede, och ett omfattande skydd mot dessa hot kan ta tid att materialisera. Tills dess bör du vara vaksam under videosamtal, särskilt i professionella miljöer eller miljöer med höga insatser. Framför allt ska du vara försiktig med att lita på det du ser online och i videomöten.
Hur kan vi hjälpa dig?