Het wordt steeds eenvoudiger om met kunstmatige intelligentie deepfakes te maken. Dit zijn misleidende online mediaberichten waarin je haast niet kunt achterhalen of wat je ziet echt is. Zo zijn er afgelopen week meerdere incidenten geweest waarin nepnieuws werd verspreid of waarmee een poging werd gedaan tot fraude
Waarschuwingen
Op het platform X, voormalig bekend als Twitter, deelde MrBeast een deepfake video waarin een AI-kloon van de bekende Youtuber te zien was. In de video zou hij zogenaamd gratis telefoons weggeven. Hij noemt het een serieus probleem en roept sociale mediaplatforms op om dit soort mediaberichten aan te pakken. Ook de Amerikaanse acteur Tom Hanks waarschuwde zijn volgers op Instagram dat er een nepvideo van hem circuleert waarin hij een tandartsverzekering promoot.
CEO-fraude
Niet alleen beroemdheden hebben last van dit fenomeen. Ook het bedrijf Bunq kreeg onlangs te maken met een deepfakevideo. Een AI-kloon van Ali Niknam, de oprichter van de bank, zou een medewerker hebben gevraagd om een groot geldbedrag over te maken. De poging mislukte. Joost van Hest, CEO van Pandora Intelligence, waarschuwt voor de gevolgen van deze ontwikkelingen. “De snelheid waarop deze technologie zich ontwikkelt kan voor grote problemen zorgen op het gebied van veiligheid en fraude.”
Snelle ontwikkeling
De ontwikkeling van kunstmatige intelligentie zorgt ervoor dat het steeds makkelijker wordt om propaganda en nepnieuws te verspreiden en CEO-fraude te plegen. Daarnaast wordt het vaak ingezet voor wraakporno of ‘sextortion’. Om dit tegen te gaan zijn bedrijven zoals Google, Meta en Microsoft technologieën aan het ontwikkelen om deepfakes te herkennen. “Als het vertrouwen in de online media daalt en deepfakes de overhand krijgen, hebben dit soort bedrijven een groot probleem. De bedrijven zullen er veel moeite in moeten steken om het herkennen van deepfakes te vereenvoudigen”, legt van Hest uit. Toch zal het, vanwege de snelle ontwikkeling, steeds lastiger worden om met dit soort technologieën de misleidende video’s te herkennen.
Zelf nadenken
Het is volgens Van Hest belangrijk dat gebruikers van online media goed worden geïnformeerd over wat er vandaag al mogelijk is op het gebied van kunstmatige intelligentie. “De kans bestaat dat het zó goed wordt, dat je niet alleen meer op technologische basis kunt herkennen of iets deepfake is of niet.” Dan is het volgens Van Hest belangrijk om goed te kijken waar het bericht vandaan komt en jezelf af te vragen of het wel logisch is wat je te zien krijgt. “Je moet een verhaallijn herkennen. Kijk niet alleen naar de technologie, dan win je het niet meer.”