Discussie Opinie

Accountant moet niet blindvaren op AI

Het gebruik van AI is problematisch voor de accountant, als die de onderliggende leermodellen niet begrijpt. Voor je het weet heeft de accountant een probleem vergelijkbaar met de 'toeslagenaffaire'.

Jan Bouwens

Onlangs schreef Ron Heinen een commentaar bij mijn column, met een door AI gegenereerd antwoord. Ik gaf aan dat ik geen reden zag om een chatbox te antwoorden, waarop Ron (zelf dit keer) als volgende tegenvraag stelde "Waarom zou de hulp van een AI-machine niet gebruikt mogen worden bij de beantwoording van vragen?"

Die vraag deed me erg denken aan een accountant die me eens vertelde dat het niet nodig was voor hem om de werking van een fraude-detectieprogramma te doorgronden. Hij zou handelen conform de suggestie die het systeem aandroeg. Ik vroeg hem wat hij zou doen als later bleek dat mensen werden beschuldigd, terwijl er geen enkele aanleiding was tot handelen. Machine based learning had gefaald en daarmee was de daaruit gegenereerde AI-toepassing onjuist. Tja, was het antwoord, men kan niet verwachten dat ik alles weet.

In dat antwoord zit de kern van het probleem.

Als ik analyses verricht, dan moet ik zelf programmeren en moet ik ook tonen dat aan de voorwaarden is voldaan om de desbetreffenden analyses uit te voeren. Ik snap dus wat ik doe en controleer of de uitkomsten ook betekenisvol zijn, gelet op de voorwaarden. Bij machine based learning gegenereerde AI weet de gebruiker dat niet. Inderdaad kunnen de antwoorden die AI genereert plausibel lijken, maar zijn ze dat ook? Heeft de gebruiker - de accountant - net als de wetenschapper gecontroleerd dat AI een geldig antwoord geeft?

In mijn werk stopt de controle ook niet bij de academicus. Als deze een studie indient bij een wetenschappelijk tijdschrift, bevat het ter overweging verzonden bestand de programma's (code) die zijn gebruikt om de gegevens te analyseren. En als de gegevens openbaar zijn moet de onderzoeker bovendien de studiespecifieke database beschikbaar stellen aan het grote publiek, terwijl voor eigen gegevens de onderzoekers mogelijk hun database ter bevestiging aan de beoordelingscommissie moeten voorleggen.

Er is geen argument om niet hetzelfde te eisen van een auteur die AI gebruikt om een ​​code te ontwikkelen, een tekst te maken of een ander product of dienst. Dat zouden we alleen al moeten doen, omdat de machine learning code die ten grondslag ligt aan de AI-toepassing de collectieve ideeën combineert die andere mensen in het verleden hebben bedacht. Iedereen die ChatGPT gebruikt, moet aan kunnen geven waar AI werd gebruikt om een product of dienst aan te kunnen bieden. Wij spreken nu al onze studenten aan op hun AI-gebruik om die reden! Niet-naleving leidt tot naming en shaming. Als illegale acties aan het licht komen terwijl de bronnen geheim worden gehouden, zou dit moeten leiden tot juridische stappen tegen de leverancier/AI-gebruiker.

Natuurlijk zal invoering van mijn voorstel het gebruik van AI voor accountants vertragen. Maar de accountant zou dezelfde discipline moeten verlangen van de gecontroleerde entiteit; opdat het bestuur zorgvuldig overweegt wat ze precies hebben gedaan met AI, wat zij zelf hebben bedacht en welk deel van het werk is gebaseerd op het gebruik van AI. Is vertraging niet juist de bedoeling, om te voorkomen dat we discriminerende AI inzetten zonder na te denken en om ervoor te zorgen dat je alleen eer op kunt strijken voor je eigen ideeën?

De accountant die blindvaart op AI, brengt zichzelf ongewild in gevaar.

Wat vindt u van deze opinie?

Reageer Spelregels debat

Jan Bouwens is hoogleraar accounting UvA en research fellow University of Cambridge.

Gerelateerd

reacties

Reageren op een artikel kan tot drie maanden na plaatsing. Reageren op dit artikel is daarom niet meer mogelijk.

Aanmelden nieuwsbrief

Ontvang elke werkdag (maandag t/m vrijdag) de laatste nieuwsberichten, opinies en artikelen in uw mailbox.

Bent u NBA-lid? Dan kunt u zich ook aanmelden via uw ledenprofiel op MijnNBA.nl.