Artificial Intelligence: “Het is in twee jaar tijd zorgwekkend eenvoudig geworden om deepfakes te maken.”

Het wordt steeds eenvoudiger om met kunstmatige intelligentie deepfakes te maken. Dit zijn misleidende online mediaberichten waarin je haast niet kunt achterhalen of wat je ziet echt is. Zo zijn er afgelopen week meerdere incidenten geweest waarin nepnieuws werd verspreid of waarmee een poging werd gedaan tot fraude 

Waarschuwingen 

Op het platform X, voormalig bekend als Twitter, deelde MrBeast een deepfake video waarin een AI-kloon van de bekende Youtuber te zien was. In de video zou hij zogenaamd gratis telefoons weggeven. Hij noemt het een serieus probleem en roept sociale mediaplatforms op om dit soort mediaberichten aan te pakken. Ook de Amerikaanse acteur Tom Hanks waarschuwde zijn volgers op Instagram dat er een nepvideo van hem circuleert waarin hij een tandartsverzekering promoot.  

CEO-fraude

Niet alleen beroemdheden hebben last van dit fenomeen. Ook het bedrijf Bunq kreeg onlangs te maken met een deepfakevideo. Een AI-kloon van Ali Niknam, de oprichter van de bank, zou een medewerker hebben gevraagd om een groot geldbedrag over te maken. De poging mislukte. Joost van Hest, CEO van Pandora Intelligence, waarschuwt voor de gevolgen van deze ontwikkelingen. “De snelheid waarop deze technologie zich ontwikkelt kan voor grote problemen zorgen op het gebied van veiligheid en fraude.” 

Snelle ontwikkeling

De ontwikkeling van kunstmatige intelligentie zorgt ervoor dat het steeds makkelijker wordt om propaganda en nepnieuws te verspreiden en CEO-fraude te plegen. Daarnaast wordt het vaak ingezet voor wraakporno of ‘sextortion. Om dit tegen te gaan zijn bedrijven zoals Google, Meta en Microsoft technologieën aan het ontwikkelen om deepfakes te herkennen. “Als het vertrouwen in de online media daalt en deepfakes de overhand krijgen, hebben dit soort bedrijven een groot probleem. De bedrijven zullen er veel moeite in moeten steken om het herkennen van deepfakes te vereenvoudigen”, legt van Hest uit. Toch zal het, vanwege de snelle ontwikkeling, steeds lastiger worden om met dit soort technologieën de misleidende video’s te herkennen. 

Zelf nadenken

Het is volgens Van Hest belangrijk dat gebruikers van online media goed worden geïnformeerd over wat er vandaag al mogelijk is op het gebied van kunstmatige intelligentie. “De kans bestaat dat het zó goed wordt, dat je niet alleen meer op technologische basis kunt herkennen of iets deepfake is of niet.” Dan is het volgens Van Hest belangrijk om goed te kijken waar het bericht vandaan komt en jezelf af te vragen of het wel logisch is wat je te zien krijgt. “Je moet een verhaallijn herkennen. Kijk niet alleen naar de technologie, dan win je het niet meer.”

Lees verder

Geselecteerd door de redactie

Einde aan tijdperk Omtzigt: “Vervreemd van het politieke proces”

Een afscheidsbrief schrijven, dat had Pieter Omtzigt zich nooit voorgenomen. Hij is altijd van plan geweest zijn ambtstermijn van vier jaar keurig af te...

Hardlopers nog niet gewend aan warmte: ‘Weinig tijd gehad voor voorbereiding’

Hardlopers hebben te weinig tijd gehad om zich voor te bereiden op de hogere temperaturen. Dat zegt sportarts Guido Vroemen. Bij de halve marathon...

AUDIO| Oorlog in Gaza en Oekraïne versterkt keuze voor het leger onder jongeren

Het aantal aanmeldingen voor het leger is de afgelopen jaren gestegen, dat meldt een woordvoerder van het ministerie van Defensie. In 2019 waren er...

Deel dit bericht