Europese verboden op ongewenste AI-toepassingen ingegaan
Vanaf 2 februari jl. gelden in de gehele Europese Unie diverse verboden op ongewenste toepassingen van kunstmatige intelligentie (AI). Daarbij gaat het bijvoorbeeld om AI-systemen die mensen indelen op basis van gedrag of persoonlijke kenmerken en zo tot nadelige behandeling kunnen leiden.
De Europese AI-verordening (AI Act), die sinds vorig jaar zomer gefaseerd inging, is gericht op het benutten van economische kansen van AI, maar ook op een veilige en betrouwbare werking van de technologie.
De AI-verordening biedt kansen voor zowel ontwikkelaars als ondernemers en tegelijk waarborgen voor Europese consumenten. Het gaat daarbij onder andere om basisafspraken over de werking van AI in producten en diensten, eisen aan (mogelijk) risicovolle toepassingen en de ondersteuning van ontwikkelaars zoals mkb'ers.
"We streven naar AI-modellen die werken volgens Europese normen en waarden", stelde minister Dirk Beljaarts (Economische Zaken) bij het ingaan van de maatregel op 2 februari. "Strenge regels waar nodig, maar géén onnodige regels voor bedrijven die laag-risico AI-systemen ontwikkelen en toepassen."
Belangrijkste verboden
Naast een verbod op rangschikking op basis van sociaal gedrag of persoonlijke kenmerken (social scoring) via de technologie, zijn ook AI-systemen die emotieherkenning in het werk en onderwijs toepassen niet meer toegestaan. Dat geldt ook voor AI-systemen die manipulatieve of misleidende technieken gebruiken, om in negatieve zin gedrag te veranderen.
Hetzelfde geldt voor realtime biometrische identificatie op afstand in de openbare ruimte voor rechtshandhaving, met beperkte uitzonderingen. Ook het inzetten van AI voor risicobeoordelingen voor het plegen van strafbare feiten, uitsluitend op basis van profilering, wordt niet meer gedoogd in de EU.
Stapsgewijze invoering
De AI-verordening is op 1 augustus 2024 in werking getreden, maar de verschillende onderdelen zijn gefaseerd van toepassing. Dat geeft ontwikkelaars en aanbieders van hoog-risico AI gelegenheid om hun toepassingen te laten voldoen aan de nieuwe eisen.
Nationale toezichthouders moeten erop toezien dat de verboden voor bepaalde AI-systemen en de eisen voor hoog-risico AI en transparantie worden nageleefd. De Europese Commissie gaat toezicht houden op grote AI-modellen, die voor veel verschillende doelen gebruikt kunnen worden.
Bron: Rijksoverheid
Gerelateerd
EY gaat AI-agents wereldwijd inzetten bij assurance-opdrachten
EY verwacht binnen drie jaar wereldwijd zo’n 160.000 audits te kunnen uitvoeren met gebruik van AI-agents, binnen het eigen assuranceplatform EY Canvas.
Britse toezichthouder biedt richtlijnen voor inzet AI bij audit
De Britse toezichthouder Financial Reporting Council (FRC) heeft eind maart jl. richtlijnen gepubliceerd voor de inzet van AI-tools bij auditopdrachten. Uitgangspunt:...
Beleggers willen weten hoe AI de audit verandert
Beleggers willen weten hoe de inzet van AI accountantscontroles verandert en of dit leidt tot scherpere inzichten in risico's en de verslaggeving. Dat is één van...
Werkgevers proberen gebruik van AI door medewerkers te stimuleren
Werkgevers, ook in de accountants- en adviessector, zetten hun medewerkers steeds vaker onder druk om met AI aan de slag te gaan. Wie dat niet doet, kan mogelijk...
Helft Nederlanders vraagt AI om financieel advies
Meer dan de helft (55 procent) van alle Nederlanders vraagt AI inmiddels om hulp bij financiële vraagstukken. Onder jongeren is dat zelfs meer dan driekwart (76...
