Artificiële intelligentie

Het einde van de waarheid: Legt een stochastische papegaai u straks in de luren?

Accountants zijn erop getraind kritisch te zijn in alles wat ze doen. Toch is de kans best reëel dat u informatie die is gegenereerd met artificiële intelligentie niet als zodanig herkent. Want de machine kan zeer overtuigende onzin produceren.

Nart Wielaard

Toen de nieuwste toepassing van ChatGPT - de chatbot van open.ai - eind 2022 live werd gezet, ontbrandden stevige discussies over wat dit voor de wereld kan gaan betekenen, van nerdy webfora tot aan het NOS Journaal. Dat is begrijpelijk want het is best indrukwekkend hoe dit nieuwe gereedschap onder meer essays schrijft, opleidingscurriculae in elkaar zet of softwarecode corrigeert.
Het is eigenlijk totaal ondoenlijk om de toekomst ervan te voorspellen. Wordt het - zoals sommigen denken - de nieuwe Google? Gaan vrijwel alle kennisintensieve beroepen op de schop en zal de mens straks alleen nog nodig zijn voor het stellen van de juiste vragen, nu de machine immers moeiteloos antwoorden produceert in alle vormen, maten en stijlen?

Papegaai_900x590.jpg

Twee tweets vatten de onzekerheid goed samen.
Tweet 1 is van de bekende venture capitalist Marc Andreessen, in januari 2023. "We are just entering an AI-powered golden age of writing, art, music, software, and science. It's going to be glorious. World historical. (cursivering redactie)"
Het contrast met tweet 2 is groot. "ChatGPT is incredibly limited, but good enough at some things to create a misleading impression of greatness. (cursivering redactie) It's a mistake to be relying on it for anything important right now. (…)"

De auteur van deze tweet: Sam Altman, nota bene de grondlegger en ceo van OpenAI zelf.  Heeft u ooit een ceo over een eigen product horen zeggen dat het (vooralsnog) vooral goed is in "creating a misleading impression of greatness"? Dat is nogal beangstigend, want overtuigingskracht is eigenlijk ook de belangrijkste factor om misinformatie zijn verwoestende werk te laten doen. En precies op het punt van overtuigingskracht doet AI het steeds beter.

'Precies op het punt van overtuigingskracht doet AI het steeds beter.'

Dan hebben we het niet over eenvoudige diensten, zoals AI-robots die financiële updates van beursfondsen binnen een paar seconden samenvatten tot een nieuwsbericht voor de media, of een minuut na het laatste fluitsignaal een wedstrijdverslag publiceren van een basketbalwedstrijd. Dat is met de huidige stand van de techniek eigenlijk kinderspel - en gebeurt al bij diverse mediabedrijven.

Het gaat om ingewikkelder werk. Denk aan een analyse van de politieke gevolgen van Brexit of een verhaal over de ontbossing van de Amazone. Of, meer in de professionele wereld van de accountant, denk aan een waarderingsrapport, de notulen van een belangrijke meeting of een marktonderzoek. Als u denkt dat het nog heel ver weg is voordat de machine dat soort dingen geloofwaardig in elkaar kan zetten, think again.
Waarom? Omdat de machine overtuigingskracht heeft.

Turing test

We kunnen in dat verband niet heen om de Turing-test: Een beroemde test uit 1950 om na te gaan of een machine als een mens kan denken en redeneren en daarmee ook een test die maatgevend is voor de overtuigingskracht. Onderzoeker Alan Turing introduceerde het 'Imitatiespel', waarbij drie deelnemers van elkaar worden geïsoleerd: een computer (die wordt getest), een mens en een beoordelaar. De computer en de mens proberen de beoordelaar te overtuigen dat zij beide mensen zijn. Pas als de beoordelaar na een aantal vragen niet weet wie de mens is, dan is de Turing-test geslaagd. Geen enkele machine is al geslaagd voor de test, maar we zitten er dicht tegenaan (later volgt in deze serie ook daarover een verhaal). Zo claimde een onderzoeker van Google in 2022 dat AI van Google de test had doorstaan. Hij werd intern echter teruggefloten op deze beweringen. Op een deelaspect was er inmiddels wel een doorbraak: onderzoekers lieten zien dat de computer wel het menselijke ritme van reageren - timing van antwoorden in een conversatie - kan simuleren.

Het bijzondere van ChatGPT is dat deze technologie niet eens een poging doet om de Turing-test te doorstaan. Het is eigenlijk niets meer dan een tekstmachine die een enorme brij aan door mensen gemaakte teksten doorzoekt en met statistische verbanden daaruit iets in elkaar schroeft. Dat is niet eens een poging om op een mens te lijken en komt neer op het versterken van historische patronen. Onderzoekers spreken van een 'stochastische papegaai', oftewel een apparaat dat toeval uitkraamt en geen enkel talent voor redeneren heeft. Sterker nog: Het is de naam AI nauwelijks waardig.

'Als je onzin maar met voldoende overtuiging communiceert, is het nog steeds geloofwaardig.'

ChatGPT wordt wat dat betreft hopeloos overschat. Dat neemt echter niet weg dat iedereen die professioneel op een of andere manier met waarheid(svinding) bezig is, alert moet zijn op deze ontwikkeling. Want met de juiste vragen kan er uiterst geloofwaardige en overtuigende onzin uit komen. En als je onzin maar met voldoende overtuiging communiceert, is het nog steeds geloofwaardig. Dat geldt voor een mens die in een meeting een overtuigend relaas afsteekt. Maar het geldt ook voor een essay dat is gegenereerd met AI.

Door de machine gegenereerde professionele informatie voor artsen en cybersecurity professionals - toch ook behoorlijk kritische lieden - ging er zonder al te veel protest in. Dat geeft te denken. Wat als u als accountant straks denkt heen en weer te mailen met de cfo van uw klant en dat blijkt een machine te zijn? En als u rapporten opneemt als audit evidence in het controledossier, weet u dan dat het echt is of moet er meer onderzoek worden gedaan of u niet te maken heeft met een stochastische papegaai? En wat zijn dan eigenlijk de opties om dat te doen? Een onderwerp voor de volgende aflevering van deze serie.

Dit is deel 2 van een reeks bijdragen waarin Nart Wielaard op zoek gaat naar waarheid in een digitale wereld en wat dat betekent voor de accountant. Deel 1 verscheen op 16 januari 2023. Beluister ook de Vitamine A-podcast met Nart Wielaard over hetzelfde thema. 

Nart Wielaard werkt op het snijvlak van maatschappij, technologie en bedrijfsleven. Hij brengt complexe ontwikkelingen terug tot eenvoudige en begrijpelijke verhalen en doet dat in de rol van gespreksleider, adviseur en schrijver.

Gerelateerd

14 reacties

Ron Heinen

Op de link

https://www.scienceguide.nl/2023/03/als-studenten-chatgpt-inzetten-om-voor-hen-te-denken-doen-docenten-iets-fout/

is ook een interessant artikeltje te vinden.

Citaat: "Een van de valkuilen van technologische hulpmiddelen in het onderwijs is de betrouwbaarheid, stelt Van Dijck. “Wat grote taalmodellen zoals ChatGPT doen, is niets anders dan imiteren. Ze denken niet en zijn niet intelligent. Hoe meer data je ze voedt, des te beter wordt het imiteren. Het spuwt een product uit met de schijn van een perfecte tekst. ChatGPT is een soort orakel van Delphi: je stopt een vraag erin, er komt een perfect antwoord uit en dat beschouwen we dan als waarheid. Dat is heel misleidend. Ook bij het orakel van Delphi moet je achter de schermen kijken wat kennis waard is.” "

Frans Kersten

Misschien eens overwegen om de kracht van AI te gaan gebruiken? Stop er eens een ongecontroleerde jaarrekening in en vraag om deze te analyseren en te toetsen tegen IFRS. Wie weet wat er dan uitkomt ...

Jan Wietsma

Er was een tijd dat het verboden was om een rekenmachine te gebruiken in de klas. "Je zou er dom van worden, niet meer in staat zijn om zelf te rekenen, laat staan uitkomsten op zijn merites te beoordelen"

En nu hebben we ChatGTP en dan worden de argumenten tegen en voor elke vernieuwing, innovatie, verandering weer gewisseld. Weliswaar in andere varianten, maar ten diepste gaat het steeds over de vraag: Wie mag ik zijn als mens?





Ron Heinen

In de gisteren verschenen brochure "AI-systemen: ontwikkel ze veilig" worden vijf aanvallen op AI-systemen beschreven, zie

https://www.aivd.nl/documenten/publicaties/2023/02/15/ai-systemen-ontwikkel-ze-veilig

Het gaat om Poisoning aanvallen, input (evasion) aanvallen, backdoor aanvallen, model reverse engineering & inversion aanvallen en inference aanvallen. Zo proberen aanvallers bij een poisoning aanval het AI-systeem te 'vergiftigen zodat het niet meer naar behoren werkt.

Je dient er rekening mee te houden dat de resultaten van AI systemen niet correct kunnen zijn omdat dit soort aanvallen eerder al zijn uitgevoerd op het AI systeem.

Gerko Akse

Auditen is nog altijd zeker stellen dat iets in materiele zin juist en volledig is. Als er meer risico is dat iets dat niet is door AI dan moeten er dus meer middelen in de gereedschapskoffer van de accountant. Overigens terug naar de bron kan altijd nog volgens mij: Terug naar de daadwerkelijke betalingen (en verificatie met derden/ banken of op de blockchain) is daarbij vermoedelijk nog meer een noodzaak in de toekomst. Waar AI een probleem creeert hebben we met de toevoeging van het uitnutten van blockchain het antwoord dus eigenlijk al in handen.

Alexander Vissers

Chat Gtp gaat het nooit winnen van het kadaster, de voorraadopname, van de standaardbankverklaring van een getekende saldobevestiging. of de handtekening onder vastgestelde notulen. Accountants hebben decennia ervaring met fantasten leugenaars, goede en slechte, Chat GTP is gewoon de zoveelste mogelijke fantast en leugenaar.

Arnout van Kempen

Beste Jan, ik ben een techno-optimist. Opgegroeid met zowel Star Trek als de Terminator, maar toch vooral met grote liefde voor innovatie en automatisering. Zorgvuldig blijven nadenken is goed, maar ik weiger me zorgen te maken.

Jan Bouwens

Beste Arnout, ChatGPT is door menselijk handelen gevoed. Het wordt echter ingewikkeld als dat menselijk handelen vervolgens door ChatGPT wordt gevoed, dat daarvan weer leert.... Ik vind dat geen wenkend perspectief, jij wel?

Albert Bosch

Als mensheid maken we het AI ook steeds makkelijker door onze producten, processen, etc. (ook creatieve sectoren zoals de muziekindustrie) meer en meer te standaardiseren. Dat levert ons heel veel efficiency voordeel, maar heeft ook keerzijdes. Ik vraag mij wel eens af of AI nu zoveel beter wordt, of dat HI (human intelligence) meer gestandaardiseerd(er).

Arnout van Kempen

Mijn punt is vooral dat ik minder onder de indruk ben van “menselijke” intelligentie dan kennelijk hoort. En hoewel ik best nog zie waar een ChatGPT te winnen heeft, ben ik al diep onder de indruk van het feit dat we de facto nu een voor mensen erg prettige interface hebben op de onafzienbare data-bibliotheek die internet is.

Nart Wielaard

@arnout Als ik je gelijk geef in deze, dan ben ik als mens ook een stochastische papegaai? Dat is grofweg je punt denk ik? Afijn, we spreken er over!

Jan Bouwens

Ik verval in herhaling maar het maakt verschil als je mensen live ziet en met hen optrekt. Een student kan bij mij niet met ChatGPT een tekst genereren. Hij/zij valt door de mand tijdens ons LIVE bijeenkomsten als dat gebeurt. Er zal dus meer aan persoonlijke contacten moeten worden gewerkt!

Ron Heinen

Citaat: "...Turing test...Geen enkele machine is al geslaagd voor de test, maar we zitten er dicht tegenaan (later volgt in deze serie ook daarover een verhaal). "

Scholieren claimen dat GPT-3 de Turing Test al heeft doorstaan. Ze lieten het programma los op hun schrijfopdrachten voor school en die gegenereerde essays leverden ze in. Hun docenten gaven deze essays de hoogste cijfers.

Een filosofische lezing is te vinden op

https://www.youtube.com/watch?v=nFUXQzINzts

Arnout van Kempen

De kwestie die hier doorheen loopt, en waarvoor we al een afspraak hebben om het eens over te hebben :), is dat de menselijke definitie van intelligentie opschuift naarmate kunstmatige intelligentie vordert.

Het is, vind ik, een opmerkelijk verschijnsel dat we als mensen bijna tegen de klippen op “argumenten” produceren die niets anders doen dan onderbouwen dat kunstmatige intelligentie niet intelligent is OMDAT het kunstmatig is.

Kennelijk is het de ene menselijke eigenschap die we zozeer koesteren dat deze tegen alle feiten bestand is.

Want mijn tegenvraag bij alle beweringen over de stochastische papegaai ChatGPT blijft deze: toon mij aan dat wat wij menselijke intelligentie noemen NIET een stochastische papegaai is (maar dan met aanzienlijk minder kennis dan ChatGPT ter beschikking heeft).

Het feit dat ChatGPT fouten maakt heb ik al gehoord, en dat het weinig kan met context, creativiteit, etcetera. Wie wel eens teksten van mensen leest (ik sluit mezelf nadrukkelijk niet uit) zou dat soort argumenten hilarisch moeten vinden, en ze niet omarmen.

Dit debat gaat over meer dan (kunstmatige) intelligentie. Het gaat over ons diepste zelfbeeld als mensheid.

Reageren op een artikel kan tot drie maanden na plaatsing. Reageren op dit artikel is daarom niet meer mogelijk.

Aanmelden nieuwsbrief

Ontvang elke werkdag (maandag t/m vrijdag) de laatste nieuwsberichten, opinies en artikelen in uw mailbox.

Bent u NBA-lid? Dan kunt u zich ook aanmelden via uw ledenprofiel op MijnNBA.nl.