Jan Bouwens

Onderzoek onder accountants laat zien dat AI voor accountants het beste werkt als het wordt ingezet als adviseur, niet als hersenvervanger, stelt Jan Bouwens.

Discussie Column

Oordelen in een tijd van hersenvervangers

De kwaliteit van het werk van de accountant, uitgevoerd met behulp van AI, kan onderhevig zijn aan het gevaar van cognitieve uitbesteding in situaties waar dat niet kan. Kantoren kunnen dit gevaar mitigeren, door zeker te stellen dat accountants de tekortkomingen in AI-gegeneerd advies in overweging nemen.

Als we kijken naar de gecontroleerde bedrijven, dan zetten deze AI in om processen binnen het bedrijf beter te beheersen en externe ontwikkelingen in het bedrijfsbeleid te betrekken. Om een intern proces te noemen: AI kan worden gebruikt om bonnetjes of bankafschriften na te maken en dus te frauderen. Het is dan van belang voor het betrokken bedrijf en de overige gebruikers van deze informatie, dat de controlerend accountant zulke fouten ontdekt. Bedrijven kunnen AI ook inzetten om meer complexe processen te begrijpen, zoals de kans dat een debiteur aan de verplichtingen zal voldoen, zodat een adequate voorziening kan worden getroffen. De controlerend accountant zal dan de kwaliteit van de onderliggende data moeten kunnen beoordelen, om tot een uitspraak te komen over de voorgestelde voorziening. Voor de inzet van AI vanuit het betrokken kantoor geldt eveneens dat de AI-toepassingen op de kwaliteit van de data worden beoordeeld.

Genoemde oordelen vergen, naast harde data, ook zachte data die de accountant helpen in te schatten of betrokkenen voldoende ter zake kundig zijn en hoe goed processen bij het bedrijf worden uitgevoerd. Verder moet de accountant zelfstandig tot een oordeel komen over de harde data en de systemen die de accountant binnen het kantoor te beschikking staan om tot een oordeel te komen. Los van de AI en binnen de ruimte van de AI die de gecontroleerde en de accountant inzet, is de accountant in ruime mate aangewezen op het vormen en uitspreken van oordelen. De vraag die Pieter de Kok recent stelde "of de audit hen [de belegger] beter beschermt tegen verrassingen", is dan ook niet zo maar te beantwoorden. 

Onderzoek van Ruth Appel e.a. laat zien dat naarmate de uitvoering van een taak meer opleiding vergt, AI meer fouten maakt. Terwijl het aantal fouten wellicht kan worden verminderd, is uitsluiting van fouten onmogelijk. In dat kader is het van belang dat de professie van auditors zich realiseert dat de toezichthouder hier geen genade kent: "You can’t blame AI for mistakes, regulator tells auditors". Gelijktijdig bestaat er zorg over de mate waarin de toezichthouder in staat is te oordelen over de vraag of de auditor tekort schiet in het toepassen van de audit. 

Terug naar de vraag van Pieter de Kok. Hoe kunnen we als professie de kans vergroten op 'betere bescherming", wat ik vertaal als betere informatie, inclusief betere IC en governance? Het is dan van belang te weten wat er mis kan gaan. Het AI-genegeerde advies kan fout zijn, omdat het is gebaseerd op onjuiste/onvolledige data. Of het systeem zelf kan fout zijn (verkeerde leermodule of prompt). Je kunt weten dat een op AI gebaseerde voorziening is gebaseerd op data uit het verleden. Daar wordt dus data uit het bedrijf (contract met de klant) geconfronteerd met een toekomst die onzekerheden bevat. Negeren van deze onzekerheden zou men aan kunnen (moeten) duiden als een fout van de mens. In een recent artikel introduceren Steven Shaw en Gideon Nave om deze reden een systeem-3-dimensie thinking Artificial, naast de bekende systemen-1-en-2-dimensies thinking Fast en Slow. Systeem 3 kan systeem 1-2 aanvullen of vervangen. Zo vervangt Google Maps systeem-1-2 denken, als we ons in een vreemde stad verplaatsen.

Hun bevindingen zijn van belang en zouden beleid van accountants moeten beïnvloeden. Zij zien dat vijf procent van hun participanten AI gebruikt als die beschikbaar is. En dat met het gebruik van AI  de accuratesse toeneemt (+25 procent), als AI een juist advies geeft. Maar de accuratesse is serieus in gevaar wanneer AI een verkeerd advies geeft: 15 procent slechter dan beslissers die geen AI gebruiken. Dat laatste is direct toe te schrijven aan onterechte overgave aan AI.

Om de vraag van Pieter te beantwoorden: op voorwaarde dat de kantoren weten te voorkomen dat hun accountants blind op AI varen, kan verbetering worden verwacht. Voor het incident in Australië, waar de betrokken accountant een AI-gegenereerd rapport aan de regering uitbracht zonder dit te controleren is dat een no brainer, maar voor complexe audits is dat geen sinecure. Je gaat niet links rijden als rechts rijden de norm is, maar zelfs als je keurig rechts houdt, moet je soms toch naar links uitwijken om ongelukken te voorkomen. Auditwerk vergt slimme accountants! Recent onderzoek onder accountants van Jung Choi en Chloe Xie laat zien dat AI voor accountants het beste werkt als AI wordt ingezet als adviseur, niet als hersenvervanger! Hiermee is een begin van het antwoord op de vraag van Pieter gegeven.

Wat vindt u van deze column?

Reageer

Jan Bouwens is hoogleraar accounting UvA en research fellow University of Cambridge.

Gerelateerd

reacties

Reageer op dit artikel

Spelregels debat

    Aanmelden nieuwsbrief

    Ontvang elke werkdag (maandag t/m vrijdag) de laatste nieuwsberichten, opinies en artikelen in uw mailbox.

    Bent u NBA-lid? Dan kunt u zich ook aanmelden via uw ledenprofiel op MijnNBA.nl.