Artificial intelligence

'AI toepassen in accountancy is uiteindelijk ook mensenwerk'

Kunstmatige intelligentie (AI) kan patronen en ongebruikelijke transacties opsporen, maar de generatieve kant ervan kan ook een bron zijn van misinformatie. Dat maakt AI zowel een kans als een risico, stelt Eddy Cardinaels, hoogleraar accountancy aan de Tilburg University. "Een blind vertrouwen in AI is niet verstandig."

Ronald Bruins

Cardinaels organiseerde eind vorig jaar met zijn collega's Judith Künneke, Máté Széles en Iuliana Sandu een tweedaags congres over AI in de accountancy. Universitair hoofddocent Künneke maakt de vergelijking met de autopilot in een Tesla. "Daar stap je ook niet in met de gedachte om vanaf dag één het stuur los te laten. Je moet eerst vertrouwen krijgen in het systeem om vervolgens zaken los te kunnen laten. Dat werkt ook zo met AI. Heb je vertrouwen  in de uitkomsten die AI genereert? Does it make sense?

Grafisch beeld van kunstmatige intelligentie

Daarnaast is de vraag hoe de uitkomsten tot stand zijn gekomen. Welke vooroordelen en aannames zitten daarin? Dat soort vragen passen bij het experimenteren met AI." Széles, assistent-professor, geeft aan dat het congres vooral ging over hoe de mens omgaat met AI. "Hoe ga je om met de achterliggende algoritmes? In hoeverre moet je die kunnen doorgronden om op de validatie van informatie uit dergelijke systemen te kunnen vertrouwen? Dat gaat nog altijd over de mens. En die mens, in dit geval de accountant, zit aan het stuur."

Fail fast

Mkb-accountantskantoren, uitzonderingen daargelaten, experimenteren nog weinig met AI, stellen de wetenschappers. Daar tegenover staan de grote accountantskantoren die hier al volop op inzetten en vaak ook al een interne versie van het openbare ChatGPT gebruiken. Daar speelt inmiddels zelfs al een kostenkwestie: Als ondernemingen data sneller kunnen doorgronden en de accountant sneller die gegevens met behulp van AI kan verwerken, is het dan niet logisch om het aantal uren van de controleopdracht te verminderen?

'Een marketingafdeling ziet sneller dan de accountancy de voordelen van AI-modellen.'

"Mkb-kantoren zijn vaak zo druk dat ze geen tijd nemen om over AI te leren. Terwijl dat toch een deel van de druk op die kantoren zou kunnen verlichten", aldus Cardinaels. "Daarnaast kun je het ook als een businesscase zien naar je klant toe. Met data-analyses die je op basis van AI maakt, voorlegt aan je klanten en daarbij advies geeft. Het snelst leer je daarbij door te proberen fouten te maken en weer op te staan. Fail fast to learn fast. Maar dat zit niet per se in de aard van accountants die vooral, gezien de aard van hun beroep, risico's zien. Een marketingafdeling ziet sneller dan de accountancy de voordelen van AI-modellen."

Welke vooroordelen zijn er? 

Künneke spreekt van een limbodans. "Je krijgt als accountant op je scherm meteen de output, zonder precies  te zien hoe die tot stand is gekomen. Door ervoor te zorgen dat je kennis van algoritmes krijgt, kun je doorgronden wat er achter het AI-model schuilt.
Dan zie je ook welke vooroordelen, biases, er bij de ontwikkeling van het model zijn gehanteerd. Echt een data-scientist worden gaat wat ver voor de gemiddelde mkb-accountant. Maar een wat groter mkb-kantoor kan wellicht een specialist op dit vlak aantrekken of een collega met interesse voor ICT deze rol meegeven." Cardinaels ziet het in die zin ook als kans. "Als accountant kun je zorgen dat AI-modellen en de input daarvoor beter worden. Door betrouwbare, gevalideerde informatie toe te voegen. Hier ligt een mooie, maatschappelijke taak voor accountants." Hoe het mis kan gaan met vooroordelen vervat in data van AI-modellen, schetst Sandu, eveneens assistent-professor. "Large language-modellen die leren van bevooroordeelde data, geven dus ook bevooroordeelde resultaten. Een voorbeeld daarvan is dat computerprogramma’s uitgaan van een 'hij' bij een dokter en bij een verpleegkundige van een 'zij'."

Verkeerde of vertekende data 

Dat is dan ook het grote gevaar van zelflerende systemen, beschouwt Künneke. "Als ze worden gevoed met verkeerde of vertekende data, dan kunnen ze verkeerde conclusies trekken of vooroordelen versterken die in de datasets aanwezig zijn. Dat kan leiden tot ongewenste of onethische beslissingen. Bijvoorbeeld als je dergelijke systemen gebruikt voor kredietbeoordeling of werving van accountants en daarbij door AI bijvoorbeeld groepen worden uitgesloten."

'Als dergelijke systemen worden gehackt, zijn de gevolgen verstrekkend.'

Daarbij bestaat ook het gevaar van een hack op een AI-systeem, zegt Cardinaels. "Als dergelijke systemen worden gehackt, zijn de gevolgen verstrekkend. Vooral als dat gebeurt bij vitale infrastructuur, financiële systemen en boekhoudsystemen."

Juistheid van databronnen 

Wie het model wil verbeteren, zal de juistheid van de data in de databronnen in de gaten moeten houden, constateren de wetenschappers. "Daar is veel te weinig oog voor op dit moment", constateert Széles. Terwijl garbage in, ook nog altijd garbarge out is. "Als je algoritmes loslaat op verouderde bedrijfssystemen, zonder dat je weet met welk doel je een AI-model maakt, dan is dat vragen om problemen. Het begint daarom bij het standaardiseren van de data. Dat kan gebeuren door een zogeheten data lakehouse boven op de systemen te bouwen. Daar verzamel je de data in zoals dat ook gebeurt in een datalake. Het bijzondere van een data lakehouse is dat daar ook de standaardisatie van de gegevens in plaatsvindt. Dan nog moeten de onderliggende, verschillende systemen ook die gestandaardiseerde gegevens kunnen leveren. Maar zo’n datahouse is dan wel een verbindende factor, als schil bovenop de voedende systemen, die wellicht wat ouder zijn. Het is een manier om niet je hele ICT-landschap op zijn kop te hoeven gooien."

Kansen bij opspeuren van fraude

De wetenschappers zien grote kansen voor AI bij het opspeuren van fraude. "De  mogelijkheden zijn veelbelovend", aldus Cardinaels. "AI kan patronen herkennen die voor het menselijk oog verborgen blijven en daarop aanslaan. De resultaten van zo'n zoektocht krijg je vervolgens voorgeschoteld om te beoordelen. Heeft AI daadwerkelijk een fraude gevonden en je laat dat aan het systeem weten, dan leert het daar weer van. Bij uitschieters gaat het bijvoorbeeld over ongebruikelijke financiële transacties, afwijkingen in inkooporders of onrechtmatigheden in de loonadministratie. Doordat het AI-systeem zelflerend is, wordt het steeds moeilijker voor fraudeurs om onopgemerkt te blijven."

'Doordat het AI-systeem zelflerend is, wordt het steeds moeilijker voor fraudeurs om onopgemerkt te blijven.'

Sandu is ook onder de indruk van het alvast invullen van formulieren of het maken van conceptrapporten. Bijvoorbeeld voor de KvK of de Belastingdienst. "Daarbij vult AI alvast delen in op basis van informatie die al bestaat in je organisatie. Dat scheelt enorm in de werkzaamheden. Je moet de gegeven antwoorden vervolgens nog wel nakijken."

Digitale assistent 

De potentie zit ook in sneller informatie ter beschikking hebben. Zoekmachine Bing van Microsoft laat nu al niet alleen het antwoord van AI zien, net als ChatGPT, maar ook de bronnen waarop die zich heeft gebaseerd. Daarnaast is Microsoft bezig met Copilot, dat in Microsoft 365 komt.

'Dat accountants niet meer nodig zouden zijn, is een fabeltje.'

Deze digitale assistent moet het mogelijk maken om op basis van eerdere gebruikte informatie in de organisatie bijvoorbeeld snel een offerte te maken, of een aanzet voor een presentatie te geven. Niet geheel toevallig: Microsoft heeft 49 procent van de aandelen van OpenAI in handen, de ontwikkelaar van ChatGPT.

Brussel gaat mogelijk investering Microsoft in OpenAI onderzoeken

De Europese Commissie bekijkt of een formeel onderzoek nodig is naar de investeringen van Microsoft in OpenAI, het bedrijf achter ChatGPT.

Daarvoor onderzoekt Brussel nu eerst of de investeringen ter waarde van dertien miljard dollar wel onder de Europese mededingingsregels vallen.

De stap van de Europese Commissie volgt op een vergelijkbare stap van marktwaakhond CMA in het Verenigd Koninkrijk, dat nagaat of Microsoft met de investeringen niet te machtig wordt. Ook de Amerikaanse FTC zou de investeringen van het techconcern kritisch volgen. Volgens persbureau Bloomberg zou die toezichthouder een verkennend onderzoek uitvoeren, dat ook nog geen formele status heeft.

De Europese Commissie kwam ook met een oproep aan experts en bedrijven met kennis over kunstmatige intelligentie (AI) en de virtuele wereld. Zij worden gevraagd om de commissie meer te vertellen over eventuele mededingingsproblemen die zij in die sectoren waarnemen.

De digitale assistent kan het leven van veel accountants zo gemakkelijker maken. Künneke: "Experimenteer zodanig dat je weet wanneer je AI wel en niet kunt gebruiken. En waarvoor wel en niet. Zodat je de output kan verifiëren, maar ook aan je klant kunt uitleggen hoe de resultaten tot stand zijn gekomen. Het woord explainability kwam tijdens ons congres veelvuldig terug. Dat accountants niet meer nodig zouden zijn, is een fabeltje. Wie dat zegt, vergeet een onderscheid te maken tussen het bijhouden van transacties en de adviserende kant. Het menselijke oordeel blijft, ook met AI, essentieel. Zeker in een vakgebied dat zo verankerd moet zijn in vertrouwen en expertise."

Ronald Bruins is journalist.

Gerelateerd

reacties

Reageren op een artikel kan tot drie maanden na plaatsing. Reageren op dit artikel is daarom niet meer mogelijk.

Aanmelden nieuwsbrief

Ontvang elke werkdag (maandag t/m vrijdag) de laatste nieuwsberichten, opinies en artikelen in uw mailbox.

Bent u NBA-lid? Dan kunt u zich ook aanmelden via uw ledenprofiel op MijnNBA.nl.