AP: kabinet moet haast maken met regelgeving rondom AI
De Autoriteit Persoonsgegevens (AP) wil dat het nieuwe kabinet haast maakt met de uitvoering van regelgeving voor artificiële intelligentie (AI) en het toezicht daarop. Ook organisaties die AI willen inzetten, hebben dringend behoefte aan helderheid over de regels voor AI.
De AP waarschuwt voor grote risico's op onveilige en discriminerende algoritmes, waartegen nu niet handhavend kan worden opgetreden. Dat blijkt uit de zesde editie van de Rapportage AI & Algoritmes Nederland, die de autoriteit twee keer per jaar publiceert.
Als coördinerend toezichthouder op algoritmes en AI analyseert de AP de belangrijkste risico's en effecten daarvan en vertaalt die naar negen graadmeters in een AI-Impactbarometer. Deze barometer toont een verslechterend beeld. In de vorige rapportage stegen al twee van de negen graadmeters naar rood. Nu is dat verdubbeld naar vier.
Gebrek aan voortgang
De AP maakt zich zorgen over het gebrek aan voortgang bij de inrichting van toezicht, de ontwikkeling van standaarden, de registratie van algoritmes door de overheid en het zicht op incidenten.
"Vijf jaar na het toeslagenschandaal zijn de lessen duidelijk, maar de opvolging blijft achter", stelt AP-voorzitter Aleid Wolfsen. "Dat komt vooral doordat stevige regels voor algoritmes en AI en handhaving hiervan ontbreken. Nu de druk om AI te omarmen toeneemt, moeten we grondrechten beschermen. Wie een nieuw schandaal wil voorkomen, moet nú handelen."
Ontwijken verantwoordelijkheid
De risico's van AI nemen exponentieel toe, stelt de autoriteit. Nieuwe toepassingen, zoals agentic AI, vragen om snelle voorbereiding van organisaties en toezichthouders. Daarnaast proberen sommige organisaties onder de AI-verordening uit te komen, door hun systemen als 'gewone algoritmes' te classificeren. Elke week ziet de AP nieuwe registraties van systemen als algoritme in het algoritmeregister, terwijl het om AI-systemen gaat. Daardoor nemen de risico's voor mensen voortdurend toe.
Ook commerciële organisaties proberen hun verantwoordelijkheden te ontlopen, ten koste van klanten of gebruikers, aldus de AP. De voornaamste gevaren die in 2025 en 2026 naar voren zijn gekomen, zijn de oncontroleerbare toename van deepfakes, AI-gestuurde fraude en psychische schade door chatbots. Ook blijven AI-beveiligingsmaatregelen steeds meer achter bij de technologische ontwikkelingen.
De AP wijst op recente incidenten met AI, zoals de wildgroei aan AI-stemwijzers en de problemen met Grok, waarmee niet van echt te onderscheiden naaktbeelden van ieder willekeurig persoon konden worden gemaakt. Dit brengt de bescherming van grondrechten en cyberveiligheid in gevaar.
Toename ernstige risico's
De AP signaleert dat de risico's van het inzetten van AI en algoritmes lang worden onderschat. Hierdoor kunnen mensen worden gediscrimineerd of ontstaat er zelfs gevaar voor de veiligheid in de samenleving. Dit blijkt ook uit verschillende kwesties in de rapportage.
De AP constateert dat veel werkgevers AI inzetten bij werving en selectie. Die inzet moet accuraat, niet-discriminerend en uitlegbaar zijn voor kandidaten. Uit verkenningen en praktijktesten blijkt echter dat transparantie en uitlegbaarheid vaak tekortschieten. Volgens de Europese AI-verordening zijn AI-systemen voor werving en selectie hoogrisicosystemen en moeten ze vanaf augustus 2026 voldoen aan strenge eisen.
Opdracht voor nieuwe kabinet
Het doel van de AI-verordening is om betrouwbare AI in Europa te bevorderen, met systemen die veilig zijn, grondrechten respecteren en tegelijkertijd innovatie mogelijk maken. De AP waarschuwt dat die doelen door besluiteloosheid niet gehaald worden en dat de invoering van AI-regels in gevaar komt.
De AP wil dat het nieuwe kabinet snel werk maakt van de uitvoering van de AI-verordening. Dat betekent: de Nederlandse uitvoeringswet vaststellen, toezichthouders aanwijzen, financiering voor toezicht structureren en duidelijkheid scheppen over de toepassing van de regels. Daarnaast moet Nederland in Europa aandringen op snelle afronding van de discussies over uitstel en vereenvoudiging van de regelgeving, aldus de Autoriteit Persoonsgegevens.
Gerelateerd
Pheijffer: korting op controlekosten wegens inzet AI kan nadelig uitpakken voor KPMG
Dat KPMG bij de eigen accountant Grant Thornton aandrong op korting op de controlefee vanwege de inzet van AI, kan voor het kantoor negatief uitpakken. KPMG-klanten...
Ook advocaten zelf maken soms onjuist gebruik van AI
Hoewel advocaten klagen dat ze steeds vaker werk van cliënten moeten overdoen na inzet van AI, maken ze zich er zelf ook schuldig aan. Recent kregen enkele advocaten...
Overheidsinstanties gaan proefdraaien met Nederlands AI-model
Vier overheidsinstanties en TNO gaan proefdraaien met GPT-NL, een Nederlands model voor kunstmatige intelligentie.
Volgens Bartjens leunen Deloitte en KPMG het meest op het klassieke partnermodel
Momenteel is er de nodige discussie over de houdbaarheid van het klassieke piramidemodel van grote advocaten- en accountantskantoren. Bartjens, de rekenmeester van...
Marges accountantswerk staan onder druk door AI
88 procent van de accountantskantoren in het Verenigd Koninkrijk geeft aan dat hun marges op traditionele compliancediensten onder druk staan, door de opkomst van...
