Opinie

Gebrekkige besluitvorming

'Of het nu gaat over vacatures, toekenning van kredieten of het opsporen van criminelen: slimme software kan het beter dan de mens.' Dat was (een deel) van de kop van een artikel in de Volkskrant van 24 november jl.

Interessant, ook omdat ik twee dagen daarvoor tijdens de Accountantsdag de presentatie van Evert Haasdijk had gevolgd, over de inzet van artifical intelligence (AI) bij het opsporen van fraude. Want zou slimme software ook betere beslissingen kunnen nemen dan een accountant, over de vraag of een jaarrekening een getrouw beeld geeft van de werkelijkheid?

Het simpele antwoord: waarom niet? Er komt nogal wat professionele oordeelsvorming kijken bij het uitvoeren van een accountantscontrole. Het bepalen van de materialiteit; het inschatten van risico's; het bepalen van aard, omvang en diepgang van de controlewerkzaamheden; het evalueren van de aangetroffen afwijkingen en onzekerheden. En het geven van een eindoordeel, al dan niet met extra paragrafen.

Hoe maakt de accountant deze afwegingen? Welke factoren betrekt hij of zij daar allemaal bij en wat geeft uiteindelijk de doorslag? Is de professionele oordeelsvorming van de ene accountant beter dan die van de andere? Kunnen accountants leren van elkaars professionele oordeelsvorming? Is professionele oordeelsvorming transparant te maken?

Aan de huidige AI-toepassingen zitten een aantal haken en ogen.  Een belangrijk punt: als je de computer traint met uitkomsten van menselijke besluitvormingsprocessen, dan neem je daarin ook de menselijke vooroordelen (bias) en psychologische valkuilen mee. Wat je erin stopt, krijg je er ook uit. AI leidt dan niet tot verbeterde, objectiever besluitvorming. Daar moet dus nog aan worden gewerkt.

Een ander probleem is transparantie. "Willen Europese burgers kunstmatige intelligentie gaan vertrouwen, dan moeten we eerst het probleem met bias oplossen. En dat niet alleen: systemen moeten ook transparant en uitlegbaar zijn", wordt expert Francesca Rossi geciteerd in het artikel in de Volkskrant. "Makers van AI software mogen zich wat haar betreft niet verschuilen achter geheimhouding van hun algoritmen."

Problemen oplossen met 'bias' en andere psychologische valkuilen die onderdeel zijn van professionele oordeelsvorming, zorgen voor transparantie en uitlegbaarheid om aan te tonen dat de uitkomsten van besluitvormingssystemen het vertrouwen waard zijn. Dat is ook waar het bij de accountantscontrole (en samenstelopdrachten) om zou moeten gaan. 

Twee weken geleden kondigde de minister van de Financiën aan dat hij, net als de AFM, vindt dat de veranderingen in de sector niet snel genoeg gaan en dat hij een onafhankelijke Commissie Toekomst Accountancysector in het leven roept. Die commissie moet gaan onderzoeken hoe de kwaliteit van de wettelijke controle duurzaam kan worden verbeterd.

Als ik de commissie zou mogen adviseren, zou ik zeggen dat het allergrootste probleem in de sector niet zit in de structuur, maar in het verouderde product. Een product dat is gebaseerd op (inherent gebrekkige) professionele oordeelsvorming, dat niet transparant is, niet genormeerd en slechts beperkt toetsbaar. Dat moet anders. En dat kan ook anders. Door opnieuw naar de tekentafel te gaan en producten te ontwikkelen die voorzien in de behoefte aan zekerheid en transparantie in een steeds verder en sneller digitaliserende wereld.

Dat zou wat mij betreft nu ook de inzet van de sector en de commissie moeten zijn. Een strategie maken voor waar je over tien jaar wilt zijn, wat dat betekent en hoe je daar gaat komen. En of het altijd waar is weet ik niet, maar in dit geval zou ook ik zeggen: structure follows strategy!

Wat vindt u van deze opinie?

Reacties 27 67 Spelregels debat

Gerelateerd

reacties

Reageer op dit artikel

Spelregels debat

    Aanmelden nieuwsbrief

    Ontvang elke werkdag (maandag t/m vrijdag) de laatste nieuwsberichten, opinies en artikelen in uw mailbox.

    Bent u NBA-lid? Dan kunt u zich ook aanmelden via uw ledenprofiel op MijnNBA.nl.