Ook KPMG gaat assurance geven bij AI-systemen
KPMG Nederland voegt AI Assurance toe aan de dienstverlening. Het kantoor ondersteunt organisaties met onafhankelijke controles van de AI-systemen, algoritmen en data-analyses die zij inzetten en aanbieden.
Recent kwam PwC al met Assurance for AI, gericht op het toetsen van kunstmatige intelligentie bij organisaties. Nu voegt ook KPMG dus AI Assurance toe aan de al langer bestaande vormen van haar Responsible AI-dienstverlening.
Uit onderzoek blijkt dat Nederlanders hun vertrouwen in AI een 5,3 geven, aldus KPMG. Dat is lager dan het wereldwijde gemiddelde. Nieuwe wet- en regelgeving, zoals de Europese AI Act, maakt het noodzakelijk dat bedrijven verantwoording afleggen over hun inzet van AI. De nieuwe AI-assurancediensten kunnen volgens KPMG bijdragen aan het verkleinen van die vertrouwenskloof.
Van jaarrekening naar AI-systeem
Volgens KPMG-partner Frank van Praat kunnen de AI-assurancediensten organisaties helpen om grip te houden op hun AI-toepassingen en vertrouwen te geven in technologie. "Denk aan het voorkomen van discriminatie, het beschermen van dataprivacy en het voldoen aan regelgeving", meent Van Praat. "Waar wij organisaties al decennialang zekerheid geven over hun cijfers, doen we dat nu ook voor AI-systemen."
AI wordt steeds vaker ingezet in dagelijkse bedrijfsvoering, van klantcontact tot procesmanagement en besluitvorming. De potentiële impact van AI-falen neemt daarmee navenant toe, stelt KPMG. Incidenten kunnen reputatieschade en omzetderving als gevolg hebben. "Daarmee neemt ook de behoefte aan transparantie en verantwoording over de inzet van AI toe."
AI-diensten
Naast AI Assurance biedt KPMG via de Responsible AI-dienstverlening ook AI Governance (begeleiden bij ontwerp, invoering en monitoring van AI-systemen) en Gap-analyses en voorbereidingsscans (evalueren van bestaande AI-systemen en het uitvoeren van technische checks om kwetsbaarheden te identificeren).
Relevante wetten en richtlijnen als de AI Act, ISO42001 en het NIST AI Risk Management Framework zijn in de methoden en technieken geïntegreerd. Dat moet helpen bij het geven van een onafhankelijk oordeel in het AI-domein, op basis van erkende en herkenbare standaarden, aldus KPMG.
Gerelateerd
AFM wil regels voor inzet AI-tools op kapitaalmarkten
Er moeten duidelijke regels over verantwoordelijkheden komen, voordat AI-hulpmiddelen op grotere schaal worden ingezet bij de handel op kapitaalmarkten. Dat zegt...
Sander Klous: 'Voorbij de AI-hype moeten wetenschap en bedrijfsleven werken aan beheersbaarheid'
Voorbij de AI-hype is het essentieel om te bouwen aan een infrastructuur waarin AI betrouwbaar kan functioneren. Daar ligt een uitdaging waar wetenschap en praktijk...
EY gaat AI-agents wereldwijd inzetten bij assurance-opdrachten
EY verwacht binnen drie jaar wereldwijd zo’n 160.000 audits te kunnen uitvoeren met gebruik van AI-agents, binnen het eigen assuranceplatform EY Canvas.
Britse toezichthouder biedt richtlijnen voor inzet AI bij audit
De Britse toezichthouder Financial Reporting Council (FRC) heeft eind maart jl. richtlijnen gepubliceerd voor de inzet van AI-tools bij auditopdrachten. Uitgangspunt:...
Beleggers willen weten hoe AI de audit verandert
Beleggers willen weten hoe de inzet van AI accountantscontroles verandert en of dit leidt tot scherpere inzichten in risico's en de verslaggeving. Dat is één van...
