Onderzoek onder accountants laat zien dat AI voor accountants het beste werkt als het wordt ingezet als adviseur, niet als hersenvervanger, stelt Jan Bouwens.
Discussie ColumnOordelen in een tijd van hersenvervangers
De kwaliteit van het werk van de accountant, uitgevoerd met behulp van AI, kan onderhevig zijn aan het gevaar van cognitieve uitbesteding in situaties waar dat niet kan. Kantoren kunnen dit gevaar mitigeren, door zeker te stellen dat accountants de tekortkomingen in AI-gegeneerd advies in overweging nemen.
Als we kijken naar de gecontroleerde bedrijven, dan zetten deze AI in om processen binnen het bedrijf beter te beheersen en externe ontwikkelingen in het bedrijfsbeleid te betrekken. Om een intern proces te noemen: AI kan worden gebruikt om bonnetjes of bankafschriften na te maken en dus te frauderen. Het is dan van belang voor het betrokken bedrijf en de overige gebruikers van deze informatie, dat de controlerend accountant zulke fouten ontdekt. Bedrijven kunnen AI ook inzetten om meer complexe processen te begrijpen, zoals de kans dat een debiteur aan de verplichtingen zal voldoen, zodat een adequate voorziening kan worden getroffen. De controlerend accountant zal dan de kwaliteit van de onderliggende data moeten kunnen beoordelen, om tot een uitspraak te komen over de voorgestelde voorziening. Voor de inzet van AI vanuit het betrokken kantoor geldt eveneens dat de AI-toepassingen op de kwaliteit van de data worden beoordeeld.
Genoemde oordelen vergen, naast harde data, ook zachte data die de accountant helpen in te schatten of betrokkenen voldoende ter zake kundig zijn en hoe goed processen bij het bedrijf worden uitgevoerd. Verder moet de accountant zelfstandig tot een oordeel komen over de harde data en de systemen die de accountant binnen het kantoor te beschikking staan om tot een oordeel te komen. Los van de AI en binnen de ruimte van de AI die de gecontroleerde en de accountant inzet, is de accountant in ruime mate aangewezen op het vormen en uitspreken van oordelen. De vraag die Pieter de Kok recent stelde "of de audit hen [de belegger] beter beschermt tegen verrassingen", is dan ook niet zo maar te beantwoorden.
Onderzoek van Ruth Appel e.a. laat zien dat naarmate de uitvoering van een taak meer opleiding vergt, AI meer fouten maakt. Terwijl het aantal fouten wellicht kan worden verminderd, is uitsluiting van fouten onmogelijk. In dat kader is het van belang dat de professie van auditors zich realiseert dat de toezichthouder hier geen genade kent: "You can’t blame AI for mistakes, regulator tells auditors". Gelijktijdig bestaat er zorg over de mate waarin de toezichthouder in staat is te oordelen over de vraag of de auditor tekort schiet in het toepassen van de audit.
Terug naar de vraag van Pieter de Kok. Hoe kunnen we als professie de kans vergroten op 'betere bescherming", wat ik vertaal als betere informatie, inclusief betere IC en governance? Het is dan van belang te weten wat er mis kan gaan. Het AI-genegeerde advies kan fout zijn, omdat het is gebaseerd op onjuiste/onvolledige data. Of het systeem zelf kan fout zijn (verkeerde leermodule of prompt). Je kunt weten dat een op AI gebaseerde voorziening is gebaseerd op data uit het verleden. Daar wordt dus data uit het bedrijf (contract met de klant) geconfronteerd met een toekomst die onzekerheden bevat. Negeren van deze onzekerheden zou men aan kunnen (moeten) duiden als een fout van de mens. In een recent artikel introduceren Steven Shaw en Gideon Nave om deze reden een systeem-3-dimensie thinking Artificial, naast de bekende systemen-1-en-2-dimensies thinking Fast en Slow. Systeem 3 kan systeem 1-2 aanvullen of vervangen. Zo vervangt Google Maps systeem-1-2 denken, als we ons in een vreemde stad verplaatsen.
Hun bevindingen zijn van belang en zouden beleid van accountants moeten beïnvloeden. Zij zien dat vijf procent van hun participanten AI gebruikt als die beschikbaar is. En dat met het gebruik van AI de accuratesse toeneemt (+25 procent), als AI een juist advies geeft. Maar de accuratesse is serieus in gevaar wanneer AI een verkeerd advies geeft: 15 procent slechter dan beslissers die geen AI gebruiken. Dat laatste is direct toe te schrijven aan onterechte overgave aan AI.
Om de vraag van Pieter te beantwoorden: op voorwaarde dat de kantoren weten te voorkomen dat hun accountants blind op AI varen, kan verbetering worden verwacht. Voor het incident in Australië, waar de betrokken accountant een AI-gegenereerd rapport aan de regering uitbracht zonder dit te controleren is dat een no brainer, maar voor complexe audits is dat geen sinecure. Je gaat niet links rijden als rechts rijden de norm is, maar zelfs als je keurig rechts houdt, moet je soms toch naar links uitwijken om ongelukken te voorkomen. Auditwerk vergt slimme accountants! Recent onderzoek onder accountants van Jung Choi en Chloe Xie laat zien dat AI voor accountants het beste werkt als AI wordt ingezet als adviseur, niet als hersenvervanger! Hiermee is een begin van het antwoord op de vraag van Pieter gegeven.
Wat vindt u van deze column?
ReageerGerelateerd
Accountants zetten AI vaker in, maar zijn nog terughoudend
Nederlandse accountantskantoren maken in toenemende mate gebruik van AI, vooral ter ondersteuning van data-analyse en controlewerkzaamheden. De adoptie verloopt...
Beter worden in waar we al goed in zijn
Andere beroepen moeten wennen aan verandering in hun werk als gevolg van AI. Maar accountants zijn vertrouwd met het beoordelen van informatie, aldus Hakan Koçak.
Kabinet komt met nationaal toezicht op Europese AI-regels
Om AI-technologie veilig en betrouwbaar te gebruiken, werkt het kabinet aan het nationale toezicht op de Europese AI-verordening. Staatssecretaris Aerdts (Digitale...
(Agentic) AI in de audit: tussen efficiëntie en illusie
Generatieve AI maakt de audit efficiënter, maar verandert de aard van de audit niet wezenlijk, stelt Pieter de Kok.
PwC gaat wereldwijde consultancypraktijk hervormen
PwC gaat de wereldwijde consultancypraktijk hervormen, om de grensoverschrijdende dienstverlening te verbeteren. Dat heeft ook te maken met de opkomst van AI.
