De roof op het Louvre in Parijs heeft heel wat losgemaakt in de wereld van de kunst. Zo ook in Italië, want daar gaat de regering inzetten op een AI-beveiligingssysteem voor het cultureel erfgoed. “Het bewaken van cultureel erfgoed is nu topprioriteit”, schrijft de Italiaanse regering in een verklaring. AI-expert Frank van Praat plaatst wel zijn kanttekeningen hierbij, “Het is heel moeilijk om nu vooraf te zeggen hoe betrouwbaar zo’n systeem gaat zijn.”
Het is nog niet precies duidelijk hoe het systeem eruit gaat zien. Van Praat voorspelt dat er een mogelijkheid is dat er bijvoorbeeld meer AI-camera’s worden opgehangen in een museum. “De camera’s registreren alle mensen die in een museum bewegen. En dan kijken ze naar afwijkend gedrag. Die zijn daar dan op getraind,” legt hij uit. “Dat meten in de echte wereld is gewoon heel ingewikkeld.”
Experts trainen het beveiligingssysteem waarschijnlijk op verdachte situaties. Ze zullen dan data van eerdere verdachte situaties gebruiken. Volgens Van Praat zit er een uitdaging in het behouden van de data die nodig is om het systeem gaande te houden. Dit is namelijk de enige manier om het systeem draaiende te houden.
Grijs gebied bij nieuw systeem
Een AI-beveiligingssysteem zou dan dus meteen moeten herkennen wanneer iemand iets doet wat niet door de beugel kan. Al kan dit wel een grijs gebied zijn bij sommige situaties. “Op het moment dat je naar iemand toegaat op basis van dat systeem, omdat die persoon verdacht afwijkend gedrag lijkt te vertonen, weet je niet of die persoon echt kwade intenties had.” Er zal dus altijd een beveiliger op de situatie af moeten komen die dan gaat checken of iemand verkeerde bedoelingen heeft.
Privacy wordt gewaarborgd
Het ophangen van AI-camera’s en het filmen van bezoekers roept ook vragen over privacyregels op. De AI-wetgeving heeft een verbod op biometrische detectie. Dit houdt in dat je mensen met hun gezicht gaat detecteren. De AI-camera’s rondom cultureel erfgoed observeren alleen gedrag. “Vanuit een privacy perspectief is het dan wel weer zo dat je iets van anonimiteit moet gaan toepassen, bijvoorbeeld dat de gezichten geblurred worden,” zegt Van Praat.






