Artificiële intelligentie

Het einde van de waarheid: Is die voicemail wel echt uw collega?

Kunnen we als mens teksten, video's of stemmen onderscheiden die door AI zijn gemaakt? We blijken er niet zo heel goed in te zijn. Er zijn gelukkig hulpmiddelen in een tijd waarin het gebruik van AI explodeert. Maar die zijn niet feilloos en lopen soms achter de feiten aan. De wapenwedloop ziet er elke maand weer anders uit.

Nart Wielaard

OpenAI was er snel bij. Toen het bedrijf de inmiddels zeer populaire toepassing ChatGPT in het najaar van 2022 lanceerde, duurde het maar een paar maanden voordat men ook tooling aanbood om te checken of teksten door AI waren gemaakt. Handig voor (bijvoorbeeld) docenten die daarmee in de gaten konden houden of hun studenten opdrachten lieten schrijven door AI. Het duurde nog geen half jaar voordat OpenAI in stilte de tool offline haalde. Want het werkte niet goed.

Foto: Wegwijzer met Lie en Truth erop

Vrijwel alle grote technologiebedrijven claimen dat ze hard werken aan oplossingen om AI-content te kunnen herkennen, mede doordat wetgevers hen daartoe aansporen. Het heeft er ook veel van weg dat daar behoorlijk haast geboden is, want we staan aan de vooravond van een vloedgolf. Specialisten van het Copenhagen Institute for Future Studies (CIFS) waren eerder dit jaar zeer kritisch en deden een tamelijk radicale voorspelling: dat meer dan 99 procent (sic) van ons internet ergens tussen 2025 en 2030 zal bestaan uit AI-content. De Amerikaanse presidentsverkiezingen van 2024 – waar misinformatie al meerdere keren een grote rol speelde – zou wel eens de lakmoesproef kunnen zijn op dit punt. Meerdere experts hebben gewaarschuwd dat bots daar een doorslaggevende rol kunnen spelen. Een shitshow aan informatie dreigt de democratie te ondermijnen.  

'Een shitshow aan informatie dreigt de democratie te ondermijnen.'

Een belangrijke nuancering: Informatie die door AI is gemaakt hoeft niet slecht te zijn en kan net zo goed of beter zijn dan informatie die door mensen is gemaakt. Maar als de machine zo dominant wordt – niet alleen op sociale media maar in alle denkbare vormen van informatie – is het wel hoog tijd om stil te staan bij risico's en bij de vraag hoe we AI kunnen herkennen.

Stemmen

Qua tekst beet OpenAI er dus de tanden al op stuk – al belooft men wel met betere middelen te komen. Qua spraak – een belangrijk en overtuigend communicatiemiddel – lijkt het ook nog niet zo eenvoudig. Een recent onderzoek waarin stemmen werden gefaked – in het Engels en Mandarijn – spreekt boekdelen. We blijken als mens namelijk niet eens in staat om machinestemmen te onderscheiden van echte stemmen: ongeveer een kwart van de machinestemmen wordt niet als zodanig herkend. Een cijfer dat maar iets beter wordt na wat training en tips. Dat is zorgelijk in een tijd waarin je niet langer een whizzkid hoeft te zijn om een stem digitaal goed na te bootsen. Weet u straks zeker dat uw collega een boodschap heeft achtergelaten, of was het een crimineel die u op die manier wat vertrouwelijke informatie afhandig probeert te maken?

Je hoeft geen trendwatcher te zijn om te weten dat dit thema – het kunnen spotten van synthetische media in wat voor vorm dan ook – de komende jaren hoog op de agenda zal komen te staan. Toen AI nog niet zo massaal was doorgebroken, was er maar een handjevol specialisten bezig met deze vraagstukken; onder meer de oprichters van Reality Defender. Het is dan ook leerzaam om de visie van deze frontrunners te vernemen. Ze geloven in elk geval niet in provenance technologie – het aanbrengen van watermerken, zoals in een eerdere bijdrage op deze site beschreven. Te omslachtig, te veel moeite voor de luie informatiegebruiker. Ze geloven ook niet dat we de mens kunnen trainen om de synthetische media te herkennen – "want zelfs wij als getrainde professionals kunnen het niet".

Ze geloven uiteindelijk toch in technologie: AI die helpt om AI te herkennen.

Giftige cocktail

Dat klinkt op zichzelf al als een gevaarlijke cocktail, maar die wordt nog wat giftiger als we tot ons door laten dringen dat we de grote techbedrijven – de partijen die met hun technologie de potentiële shitshow aan informatie helpen bouwen – nodig hebben voor goede wapens ertegen. Waarom we hen nodig hebben? Omdat AI beter wordt naarmate er meer data beschikbaar is om modellen te trainen. Dat geldt voor ChatGPT of andere handige tools, maar ook voor technologie om deepfakes te ontmaskeren. En dus werken onder meer Facebook, Google, Amazon Web Services en Microsoft samen om die trainingsdata op te hoesten in de zogeheten Deepfake Detection Challenge.

'Het is lastig te voorspellen waar dit eindigt.'

Het is lastig te voorspellen waar dit eindigt. Het welbekende Ei van Columbus is nog niet gevonden en in de visie van Reality Defender is het in elk geval beter om te wedden op een mandje eieren. Hun oplossingen gaan uit van een set van tientallen modellen en technieken, die op verschillende manieren werken en samen op hun platform vrijwel instant een oordeel vellen. Ze noemen het zelf een kitchen sink approach.  

Een mogelijk nieuw ei in dat mandje is een benadering waarin mensen zelf meer de regie nemen over hun eigen beelden. Door een stukje informatie toe te voegen aan een foto – onzichtbaar voor het oog – zou je de deepfake software voor de gek kunnen houden. De software zou dan zo ontregeld worden dat er onwerkbare resultaten uit komen. Ook dit concept heeft weer zijn beperkingen – want hoe houd je bijvoorbeeld zelf de regie over de beelden die er van je in omloop zijn? Voor een Amerikaanse president is dat in elk geval ondoenlijk.

Dit is deel 8 van een reeks bijdragen waarin Nart Wielaard op zoek gaat naar waarheid in een digitale wereld en wat dat betekent voor de accountant. Beluister ook de Vitamine A-podcast met Nart over hetzelfde thema. Op de komende Accountantsdag (23 november) spreekt Nart tijdens twee sessies met experts over AI en het accountantsberoep.

Nart Wielaard werkt op het snijvlak van maatschappij, technologie en bedrijfsleven. Hij brengt complexe ontwikkelingen terug tot eenvoudige en begrijpelijke verhalen en doet dat in de rol van gespreksleider, adviseur en schrijver.

Gerelateerd

6 reacties

Frans Kersten

Toen ik in het controlevak begon en een inkoopfactuur op echtheid gecontroleerd moest worden, warenkopieën herkenbaar aan het speciale papier wat toen nog nodig was.
Toen de kleurencopyer met standaard papier binnen ieders mogelijkheden was, werd hier ook een oplossing voor gevonden. Zo zal het ook met AI gaan.
Wie vorige week naar Dragons Den gekeken heeft, heeft daar kunnen zien dat studenten uit Delft een oplossing hadden ter ondersteuning van integriteitscontrole op afstand voor o.a. de bankensector.

Aan de andere kant: zolang medewerkers ondanks allerlei security awareness campagnes nog steeds in phishing mail trappen, kunnen de criminelen simpelen methodes blijven gebruiken.

Ron Heinen

@Lex van Almelo

Een goede uitleg over "Het Begin van de Waarheid" is te vinden op

https://drive.google.com/file/d/1dxqrGR5bzDnhD-6x_8D5-IQrQLEdmCgY

Wiskunde is als absolute kennis met eeuwig durende geldigheid het begin van de waarheid in de wetenschap. Op

https://drive.google.com/file/d/16EE2pkYIzFWl_V1NcwEE6TQqpRb4Xm8W

is een goede uitleg te vinden over het verschil tussen wetenschap en non-wetenschap.

Omdat wiskunde het eeuwige fundament en de verbindende schakel is tussen alle wetenschappelijke disciplines zal wetenschap onware non-wetenschappelijke verhalen overrulen, hoewel dit wel lang kan duren.

Een introductie over de historie en filosofie van de wetenschap is te vinden op

https://drive.google.com/file/d/1gHDjMPoO2v003sl4c-V3k6SdcFTGHDTN

en

https://drive.google.com/file/d/1KpqBKWE-8pGhKTWx1SV77beONC43fl0H

Lex van Almelo

Als mens vind ik de kop ‘Het einde van de waarheid’ prachtig. Hoewel ik me afvraag of ik het Begin van de Waarheid’ ooit heb gezien.

Ron Heinen

Op https://benchmarks.llmonitor.com/

zijn een aantal leuke benchmarks te vinden voor AI-machines welke werken met grote taalmodellen.

De antwoorden van een AI-machine dien je te controleren op de feiten waarvan de AI-machine uitgaat en de gevolgde logica door de AI-machine in het antwoord.

Arnout van Kempen

Wat is de relatie tussen “AI” en “fake”? En wat is de relatie tussen “fake stem” en “onjuiste informatie”?

Ik denk dat we moeten oppassen voor een wat al te makkelijk aannemen dat het allemaal reuze erg is.

Een vergelijking: toen ik ooit, inmiddels heel lang geleden, student technische natuurkunde was aan de TU/e, was daar discussie over het toelaten van programmeerbare rekenmachines.

Vertaal het eens naar de discussie van vandaag. Kan een mens het verschil zien tussen een echte uitkomst van 1+1 (namelijk 2, in decimaal stelsel) zoals een mens dat produceert, of het fake antwoord 2, geproduceerd door een rekenmachine? Nee, dat kan een mens niet. En geen enkel weldenkend mens zal daar vandaag nog moeilijk over doen. Natuurlijk is het antwoord van rekenmachine en computer net zo goed als van een mens. Bij complexere berekeningen vaak zelfs vele malen beter.

Als we binnenkort weer eens een raket naar de maan sturen, hebben we dan liever dat de baan berekend is met “fake” uitkomsten van een computer of liever “echte” uitkomsten door een mens uit het hoofd?

Ik wil nog wel een radicale voorspelling doen over het internet: ik voorspel dat 100% (jazeker) van alle internet-content voor dit jaar om is zal bestaan uit digitale informatie op computers en elektronische gegevensdragers, die zonder sporen na te laten gemanipuleerd kan worden.

Daar zouden we ons misschien eens wat drukker om moeten maken. Het probleem is niet de beschikbaarheid van tools, waaronder AI, om informatie te genereren en te bewerken. Het probleem is niet dat we nogal arbitrair het ene “fake” noemen en het andere “echt”. Het probleem is de inhoud: de betrouwbaarheid, de juistheid en de volledigheid van de informatie. En dat is volstrekt niets nieuws.

Ron Heinen & Bing Chat GPT4

Ik heb Bing Chat GPT4 gevraagd om te reageren op het artikel.

Ook heb ik wat vervolg vragen gesteld.

De antwoorden zijn te vinden op:

https://www.ndax.eu/O1JGNQCz2zspGpoxCVDJ.pdf

De letters zijn wat klein maar kunnen zo groot gemaakt worden als je wilt in het universele pdf bestandsformaat.

Reageren op een artikel kan tot drie maanden na plaatsing. Reageren op dit artikel is daarom niet meer mogelijk.

Aanmelden nieuwsbrief

Ontvang elke werkdag (maandag t/m vrijdag) de laatste nieuwsberichten, opinies en artikelen in uw mailbox.

Bent u NBA-lid? Dan kunt u zich ook aanmelden via uw ledenprofiel op MijnNBA.nl.