PwC gaat assurance bieden bij kunstmatige intelligentie
PwC Nederland introduceert 'Assurance for AI', een nieuwe dienst gericht op het toetsen van kunstmatige intelligentie. Volgens PwC gaat het om een beoordeling van regelgevende, technologische en governance-aspecten van een organisatie, voor het transparant, verantwoord en controleerbaar inzetten van AI.
Assurance for AI omvat een reeks diensten die onafhankelijke zekerheid en andere gerelateerde oplossingen bieden voor systemen met kunstmatige intelligentie, aldus PwC. De diensten zijn aanvullend op de al bestaande adviesdiensten van het kantoor op het gebied van AI-governance, risicobeheer, interne beheersing en het testen en valideren van AI-toepassingen.
De dienstverlening loopt uiteen van zogenoemde maturity en readiness assessments tot uitgebreide toetsing van AI-toepassingen. PwC richt zich op organisaties die AI operationeel inzetten, al dan niet met gebruikmaking van externe leveranciers en dienstverleners.
Ook is de nieuwe vorm van assurance bedoeld voor organisaties die aan wettelijke en maatschappelijke eisen moeten voldoen, waaronder sectorale eisen zoals in de financiële sector en de zorg, eisen gerelateerd aan ESG-rapportage en eisen gericht op digitale weerbaarheid.
Vertrouwen
"AI wordt steeds meer een kernonderdeel van dagelijkse besluitvorming en werkprocessen, en de vraag van klanten groeit", stelt Mona de Boer, leider van de Trust in AI-praktijk bij PwC Nederland. "Om het maximale uit AI te halen, moeten organisaties en hun belanghebbenden vertrouwen hebben in de oplossingen, de onderliggende data en de beslissingen die eruit voortkomen."
Veel bedrijven ontwikkelen prototypes voor nieuwe AI-toepassingen, maar aarzelen de stap naar productie te zetten, meent De Boer. "Onafhankelijke zekerheid kan hun het extra vertrouwen geven dat ze nodig hebben om die stap te zetten."
De AI-dienstverlening van PwC is gebaseerd op normen zoals de EU AI Act, ISO 42001 en andere sectorspecifieke eisen en standaarden. "Het is cruciaal dat organisaties vertrouwen hebben dat hun AI-systemen op verantwoorde wijze worden beheerd en voldoen aan regelgeving", aldus Wytse van der Molen, voorzitter van de Assurance Board van PwC Nederland. "Organisaties moeten duidelijke kaders, verantwoordelijkheden en toezicht instellen, om ervoor te zorgen dat AI ethisch en transparant wordt ontwikkeld en ingezet."
Gerelateerd
'AI maakt arbeidsmigratie onnodig'
Kunstmatige intelligentie zal "grootschalige immigratie" om de economie en arbeidsmarkten van westerse landen te ondersteunen overbodig maken. Dat heeft topman Alex...
Ceo's zien kansen in AI, maar zijn bezorgd over geopolitieke dreigingen
Ceo's maken zich in toenemende mate zorgen over de impact van geopolitieke spanningen en het tempo van technologische ontwikkelingen op hun bedrijfsvoering. Tegelijk...
AFM houdt in 2026 meer toezicht op cyberweerbaarheid en AI en gaat inzet audit tooling toetsen
In 2026 wil de Autoriteit Financiële Markten (AFM) intensiever toezicht houden op digitale weerbaarheid en de verantwoorde inzet van AI. Daarnaast wordt de aanpak...
OESO waarschuwt voor te grote afhankelijkheid van AI in onderwijs
Aan een te grote afhankelijkheid van kunstmatige intelligentie (AI) in het onderwijs kleven risico's. Daarvoor waarschuwt de Organisatie voor Economische Samenwerking...
Burgemeester Londen vreest massaontslagen door AI
De Londense burgemeester Sadiq Khan vreest dat er massaontslagen gaan plaatsvinden in de Britse hoofdstad, doordat kunstmatige intelligentie (AI) veel werk gaat...
