Accountant moet niet blindvaren op AI
Het gebruik van AI is problematisch voor de accountant, als die de onderliggende leermodellen niet begrijpt. Voor je het weet heeft de accountant een probleem vergelijkbaar met de 'toeslagenaffaire'.
Jan Bouwens
Onlangs schreef Ron Heinen een commentaar bij mijn column, met een door AI gegenereerd antwoord. Ik gaf aan dat ik geen reden zag om een chatbox te antwoorden, waarop Ron (zelf dit keer) als volgende tegenvraag stelde "Waarom zou de hulp van een AI-machine niet gebruikt mogen worden bij de beantwoording van vragen?"
Die vraag deed me erg denken aan een accountant die me eens vertelde dat het niet nodig was voor hem om de werking van een fraude-detectieprogramma te doorgronden. Hij zou handelen conform de suggestie die het systeem aandroeg. Ik vroeg hem wat hij zou doen als later bleek dat mensen werden beschuldigd, terwijl er geen enkele aanleiding was tot handelen. Machine based learning had gefaald en daarmee was de daaruit gegenereerde AI-toepassing onjuist. Tja, was het antwoord, men kan niet verwachten dat ik alles weet.
In dat antwoord zit de kern van het probleem.
Als ik analyses verricht, dan moet ik zelf programmeren en moet ik ook tonen dat aan de voorwaarden is voldaan om de desbetreffenden analyses uit te voeren. Ik snap dus wat ik doe en controleer of de uitkomsten ook betekenisvol zijn, gelet op de voorwaarden. Bij machine based learning gegenereerde AI weet de gebruiker dat niet. Inderdaad kunnen de antwoorden die AI genereert plausibel lijken, maar zijn ze dat ook? Heeft de gebruiker - de accountant - net als de wetenschapper gecontroleerd dat AI een geldig antwoord geeft?
In mijn werk stopt de controle ook niet bij de academicus. Als deze een studie indient bij een wetenschappelijk tijdschrift, bevat het ter overweging verzonden bestand de programma's (code) die zijn gebruikt om de gegevens te analyseren. En als de gegevens openbaar zijn moet de onderzoeker bovendien de studiespecifieke database beschikbaar stellen aan het grote publiek, terwijl voor eigen gegevens de onderzoekers mogelijk hun database ter bevestiging aan de beoordelingscommissie moeten voorleggen.
Er is geen argument om niet hetzelfde te eisen van een auteur die AI gebruikt om een code te ontwikkelen, een tekst te maken of een ander product of dienst. Dat zouden we alleen al moeten doen, omdat de machine learning code die ten grondslag ligt aan de AI-toepassing de collectieve ideeën combineert die andere mensen in het verleden hebben bedacht. Iedereen die ChatGPT gebruikt, moet aan kunnen geven waar AI werd gebruikt om een product of dienst aan te kunnen bieden. Wij spreken nu al onze studenten aan op hun AI-gebruik om die reden! Niet-naleving leidt tot naming en shaming. Als illegale acties aan het licht komen terwijl de bronnen geheim worden gehouden, zou dit moeten leiden tot juridische stappen tegen de leverancier/AI-gebruiker.
Natuurlijk zal invoering van mijn voorstel het gebruik van AI voor accountants vertragen. Maar de accountant zou dezelfde discipline moeten verlangen van de gecontroleerde entiteit; opdat het bestuur zorgvuldig overweegt wat ze precies hebben gedaan met AI, wat zij zelf hebben bedacht en welk deel van het werk is gebaseerd op het gebruik van AI. Is vertraging niet juist de bedoeling, om te voorkomen dat we discriminerende AI inzetten zonder na te denken en om ervoor te zorgen dat je alleen eer op kunt strijken voor je eigen ideeën?
De accountant die blindvaart op AI, brengt zichzelf ongewild in gevaar.
Gerelateerd
'AI maakt arbeidsmigratie onnodig'
Kunstmatige intelligentie zal "grootschalige immigratie" om de economie en arbeidsmarkten van westerse landen te ondersteunen overbodig maken. Dat heeft topman Alex...
Ceo's zien kansen in AI, maar zijn bezorgd over geopolitieke dreigingen
Ceo's maken zich in toenemende mate zorgen over de impact van geopolitieke spanningen en het tempo van technologische ontwikkelingen op hun bedrijfsvoering. Tegelijk...
AFM houdt in 2026 meer toezicht op cyberweerbaarheid en AI en gaat inzet audit tooling toetsen
In 2026 wil de Autoriteit Financiële Markten (AFM) intensiever toezicht houden op digitale weerbaarheid en de verantwoorde inzet van AI. Daarnaast wordt de aanpak...
OESO waarschuwt voor te grote afhankelijkheid van AI in onderwijs
Aan een te grote afhankelijkheid van kunstmatige intelligentie (AI) in het onderwijs kleven risico's. Daarvoor waarschuwt de Organisatie voor Economische Samenwerking...
Burgemeester Londen vreest massaontslagen door AI
De Londense burgemeester Sadiq Khan vreest dat er massaontslagen gaan plaatsvinden in de Britse hoofdstad, doordat kunstmatige intelligentie (AI) veel werk gaat...
