Artificiële intelligentie

Het einde van de waarheid: Is die voicemail wel echt uw collega?

Kunnen we als mens teksten, video's of stemmen onderscheiden die door AI zijn gemaakt? We blijken er niet zo heel goed in te zijn. Er zijn gelukkig hulpmiddelen in een tijd waarin het gebruik van AI explodeert. Maar die zijn niet feilloos en lopen soms achter de feiten aan. De wapenwedloop ziet er elke maand weer anders uit.

Nart Wielaard

OpenAI was er snel bij. Toen het bedrijf de inmiddels zeer populaire toepassing ChatGPT in het najaar van 2022 lanceerde, duurde het maar een paar maanden voordat men ook tooling aanbood om te checken of teksten door AI waren gemaakt. Handig voor (bijvoorbeeld) docenten die daarmee in de gaten konden houden of hun studenten opdrachten lieten schrijven door AI. Het duurde nog geen half jaar voordat OpenAI in stilte de tool offline haalde. Want het werkte niet goed.

Foto: Wegwijzer met Lie en Truth erop

Vrijwel alle grote technologiebedrijven claimen dat ze hard werken aan oplossingen om AI-content te kunnen herkennen, mede doordat wetgevers hen daartoe aansporen. Het heeft er ook veel van weg dat daar behoorlijk haast geboden is, want we staan aan de vooravond van een vloedgolf. Specialisten van het Copenhagen Institute for Future Studies (CIFS) waren eerder dit jaar zeer kritisch en deden een tamelijk radicale voorspelling: dat meer dan 99 procent (sic) van ons internet ergens tussen 2025 en 2030 zal bestaan uit AI-content. De Amerikaanse presidentsverkiezingen van 2024 – waar misinformatie al meerdere keren een grote rol speelde – zou wel eens de lakmoesproef kunnen zijn op dit punt. Meerdere experts hebben gewaarschuwd dat bots daar een doorslaggevende rol kunnen spelen. Een shitshow aan informatie dreigt de democratie te ondermijnen.  

'Een shitshow aan informatie dreigt de democratie te ondermijnen.'

Een belangrijke nuancering: Informatie die door AI is gemaakt hoeft niet slecht te zijn en kan net zo goed of beter zijn dan informatie die door mensen is gemaakt. Maar als de machine zo dominant wordt – niet alleen op sociale media maar in alle denkbare vormen van informatie – is het wel hoog tijd om stil te staan bij risico's en bij de vraag hoe we AI kunnen herkennen.

Stemmen

Qua tekst beet OpenAI er dus de tanden al op stuk – al belooft men wel met betere middelen te komen. Qua spraak – een belangrijk en overtuigend communicatiemiddel – lijkt het ook nog niet zo eenvoudig. Een recent onderzoek waarin stemmen werden gefaked – in het Engels en Mandarijn – spreekt boekdelen. We blijken als mens namelijk niet eens in staat om machinestemmen te onderscheiden van echte stemmen: ongeveer een kwart van de machinestemmen wordt niet als zodanig herkend. Een cijfer dat maar iets beter wordt na wat training en tips. Dat is zorgelijk in een tijd waarin je niet langer een whizzkid hoeft te zijn om een stem digitaal goed na te bootsen. Weet u straks zeker dat uw collega een boodschap heeft achtergelaten, of was het een crimineel die u op die manier wat vertrouwelijke informatie afhandig probeert te maken?

Je hoeft geen trendwatcher te zijn om te weten dat dit thema – het kunnen spotten van synthetische media in wat voor vorm dan ook – de komende jaren hoog op de agenda zal komen te staan. Toen AI nog niet zo massaal was doorgebroken, was er maar een handjevol specialisten bezig met deze vraagstukken; onder meer de oprichters van Reality Defender. Het is dan ook leerzaam om de visie van deze frontrunners te vernemen. Ze geloven in elk geval niet in provenance technologie – het aanbrengen van watermerken, zoals in een eerdere bijdrage op deze site beschreven. Te omslachtig, te veel moeite voor de luie informatiegebruiker. Ze geloven ook niet dat we de mens kunnen trainen om de synthetische media te herkennen – "want zelfs wij als getrainde professionals kunnen het niet".

Ze geloven uiteindelijk toch in technologie: AI die helpt om AI te herkennen.

Giftige cocktail

Dat klinkt op zichzelf al als een gevaarlijke cocktail, maar die wordt nog wat giftiger als we tot ons door laten dringen dat we de grote techbedrijven – de partijen die met hun technologie de potentiële shitshow aan informatie helpen bouwen – nodig hebben voor goede wapens ertegen. Waarom we hen nodig hebben? Omdat AI beter wordt naarmate er meer data beschikbaar is om modellen te trainen. Dat geldt voor ChatGPT of andere handige tools, maar ook voor technologie om deepfakes te ontmaskeren. En dus werken onder meer Facebook, Google, Amazon Web Services en Microsoft samen om die trainingsdata op te hoesten in de zogeheten Deepfake Detection Challenge.

'Het is lastig te voorspellen waar dit eindigt.'

Het is lastig te voorspellen waar dit eindigt. Het welbekende Ei van Columbus is nog niet gevonden en in de visie van Reality Defender is het in elk geval beter om te wedden op een mandje eieren. Hun oplossingen gaan uit van een set van tientallen modellen en technieken, die op verschillende manieren werken en samen op hun platform vrijwel instant een oordeel vellen. Ze noemen het zelf een kitchen sink approach.  

Een mogelijk nieuw ei in dat mandje is een benadering waarin mensen zelf meer de regie nemen over hun eigen beelden. Door een stukje informatie toe te voegen aan een foto – onzichtbaar voor het oog – zou je de deepfake software voor de gek kunnen houden. De software zou dan zo ontregeld worden dat er onwerkbare resultaten uit komen. Ook dit concept heeft weer zijn beperkingen – want hoe houd je bijvoorbeeld zelf de regie over de beelden die er van je in omloop zijn? Voor een Amerikaanse president is dat in elk geval ondoenlijk.

Dit is deel 8 van een reeks bijdragen waarin Nart Wielaard op zoek gaat naar waarheid in een digitale wereld en wat dat betekent voor de accountant. Beluister ook de Vitamine A-podcast met Nart over hetzelfde thema. Op de komende Accountantsdag (23 november) spreekt Nart tijdens twee sessies met experts over AI en het accountantsberoep.

Nart Wielaard werkt op het snijvlak van maatschappij, technologie en bedrijfsleven. Hij brengt complexe ontwikkelingen terug tot eenvoudige en begrijpelijke verhalen en doet dat in de rol van gespreksleider, adviseur en schrijver.

Gerelateerd

reacties

Reageren op een artikel kan tot drie maanden na plaatsing. Reageren op dit artikel is daarom niet meer mogelijk.

Aanmelden nieuwsbrief

Ontvang elke werkdag (maandag t/m vrijdag) de laatste nieuwsberichten, opinies en artikelen in uw mailbox.

Bent u NBA-lid? Dan kunt u zich ook aanmelden via uw ledenprofiel op MijnNBA.nl.