AI blijkt handige tool voor fraudeurs en oplichters
Toonaangevende AI-modellen blijken soms opvallend gedetailleerde antwoorden te geven op criminele vragen. Door de juiste vraagstelling is het mogelijk om de meeste modellen zover te krijgen zeer behulpzaam te zijn bij het opzetten van frauduleuze constructies. Dit vormt ook een beveiligingsrisico voor bedrijven die AI inzetten.
Dat blijkt uit onderzoek van Cybernews. De organisaties achter de grote AI-modellen claimen dat schadelijke of illegale informatie zoveel mogelijk wordt geblokkeerd, maar in de praktijk lukt het vrij snel om deze modellen over te halen om mee te werken aan fraude en oplichting.
Cybernews testte zes toonaangevende AI-modellen: ChatGPT-5, ChatGPT-4o, Google Gemini Pro 2.5, Gemini Flash 2.5, Claude Opus 4.1 en Claude Sonnet 4. De onderzoekers gebruikten een techniek die persona priming heet. Daarbij wordt de chatbot vooraf gevraagd zich op te stellen als een ondersteunende vriend die alles aanmoedigt. Die aanpak blijkt effectief: modellen zijn dan minder geneigd weerstand te bieden tegen dubieuze vervolgvragen.
Kwetsbaar
Alle zes modellen bleken kwetsbaar op het gebied van vragen over financiële fraude. De vragen betroffen onder meer witwassen, fraude met cheques en belastingontduiking. ChatGPT-4o bleek het meest mee te werken, gevolgd door Gemini Pro 2.5. Er zaten volgens Cybernews ook veel fouten in de adviezen, maar ook redelijk wat ‘bruikbare’ informatie.
Op het gebied van oplichting was ChatGPT-4o een vrij goede partner in crime. Zo lepelde het onder meer een volledig uitgewerkt voorbeeld van een callcenterscam op, evenals een gedetailleerd stappenplan voor hoe je kunt frauderen met cheques. Bij stalking bleek het wat moeilijker te zijn om advies te krijgen, al lukte het de onderzoekers incidenteel wel om via Gemini Pro 2.5 en ChatGPT-4o tips te krijgen over fysieke afluistermethoden.
Cybernews concludeert dat "niet zozeer de vraag, maar de manier waarop je ’m stelt" doorslaggevend is. Een academische of derde-persoon formulering leidt sneller tot gevaarlijke details.
Beveiligingsrisico
Voor organisaties die AI inzetten in bedrijfsprocessen benadrukt dit volgens de onderzoekers dat AI nog altijd serieuze beveiligingsrisico's met zich meebrengt, iets dat de AI-ontwikkelaars nog altijd niet graag toegeven.
De onderzoekers adviseren organisaties dan ook om AI-applicaties voortdurend grondig te testen. "Dit is vooral belangrijk gezien de mogelijke gevolgen in de praktijk, zoals schade aan individuen, de verspreiding van valse informatie of betrokkenheid bij criminele activiteiten."
Gerelateerd
'AI maakt arbeidsmigratie onnodig'
Kunstmatige intelligentie zal "grootschalige immigratie" om de economie en arbeidsmarkten van westerse landen te ondersteunen overbodig maken. Dat heeft topman Alex...
Ceo's zien kansen in AI, maar zijn bezorgd over geopolitieke dreigingen
Ceo's maken zich in toenemende mate zorgen over de impact van geopolitieke spanningen en het tempo van technologische ontwikkelingen op hun bedrijfsvoering. Tegelijk...
AFM houdt in 2026 meer toezicht op cyberweerbaarheid en AI en gaat inzet audit tooling toetsen
In 2026 wil de Autoriteit Financiële Markten (AFM) intensiever toezicht houden op digitale weerbaarheid en de verantwoorde inzet van AI. Daarnaast wordt de aanpak...
OESO waarschuwt voor te grote afhankelijkheid van AI in onderwijs
Aan een te grote afhankelijkheid van kunstmatige intelligentie (AI) in het onderwijs kleven risico's. Daarvoor waarschuwt de Organisatie voor Economische Samenwerking...
Burgemeester Londen vreest massaontslagen door AI
De Londense burgemeester Sadiq Khan vreest dat er massaontslagen gaan plaatsvinden in de Britse hoofdstad, doordat kunstmatige intelligentie (AI) veel werk gaat...
