AFM wil regels voor inzet AI-tools op kapitaalmarkten
Er moeten duidelijke regels over verantwoordelijkheden komen, voordat AI-hulpmiddelen op grotere schaal worden ingezet bij de handel op kapitaalmarkten. Dat zegt de Autoriteit Financiële Markten (AFM) na onderzoek naar AI op de kapitaalmarkten.
In het rapport AI in Capital Markets: Balancing Innovation and Integrity schetst de AFM een toekomst waarin AI-modellen inmiddels zo snel en autonoom kunnen opereren, dat zij marktgedrag beïnvloeden op manieren die beleggers niet altijd doorhebben.
AI-agents worden met de opmars van AI steeds vaker gebruikt door handelaren. Maar het gebruik van kunstmatige intelligentie op de kapitaalmarkten kan risico's met zich meebrengen, waarschuwt de toezichthouder.
Door zelflerende handelssystemen kunnen patronen ontstaan die lijken op gecoördineerd gedrag, zonder dat partijen overleg hebben gehad of dat beogen. Als er geen menselijk toezicht is, zou AI met mogelijk gemanipuleerde informatie het handelsverloop kunnen beïnvloeden.
Menselijke monitoring nodig
Wanneer de systemen autonomer worden, vergroot dat volgens de AFM het risico dat AI-agenten met elkaar gaan handelen zonder tussenkomst van mensen. "Voortdurende menselijke monitoring blijft essentieel om te waarborgen dat handelsmodellen zich gedragen zoals bedoeld, ze ethisch zijn ontworpen en niet worden misleid door onvolledige of gemanipuleerde data", vindt de AFM.
De toezichthouder benadrukt dat mensen die AI-hulpmiddelen gebruiken hier zelf verantwoordelijk voor moeten blijven, "hoe complex of ondoorzichtig een model ook wordt". AI-handelsmodellen moeten volgens de AFM beheersbaar blijven. Er moeten garanties komen om te voorkomen dat modellen mazen in de regelgeving benutten, problematisch gedrag verhullen of illegale handelingen uitvoeren.
Verantwoordelijk
"We willen dat ook met deze nieuwe technologie de verantwoordelijkheden en wie we kunnen aanspreken heel helder is. En dat je niet kan zeggen: sorry ik weet ook niet precies wat er gebeurd is", licht AFM-bestuurslid Hanzo van Beusekom toe. "Het narratief vanuit AFM is: wie is verantwoordelijk?"
De technologie "dondert voort", stelt de bestuurder, maar bij sommige instellingen is nog niet alles goed geregeld. "Je ziet iedereen nog een beetje zoeken. Prima als je dit wilt gaan inzetten, maar dan moet je ook de risico's onder controle houden."
Op de vraag of de verantwoordelijkheid volgens de toezichthouder ook bij de ontwikkelaars van AI-tools moet liggen, antwoordt Van Beusekom dat de AFM zich niet op dat soort bedrijven richt. "De verantwoordelijkheid om ervoor te zorgen dat ze goede technieken inkopen, ligt echt bij de instellingen zelf."
Bron: ANP/AFM/Accountant
Gerelateerd
AFM: 'Onvoorspelbaarheid financiële markten is nieuwe normaal'
De opeenstapeling van economische schokken, technologische versnellingen en internationale spanningen maakt de omgeving fundamenteel onzeker. Voor de financiële...
Sander Klous: 'Voorbij de AI-hype moeten wetenschap en bedrijfsleven werken aan beheersbaarheid'
Voorbij de AI-hype is het essentieel om te bouwen aan een infrastructuur waarin AI betrouwbaar kan functioneren. Daar ligt een uitdaging waar wetenschap en praktijk...
EY gaat AI-agents wereldwijd inzetten bij assurance-opdrachten
EY verwacht binnen drie jaar wereldwijd zo’n 160.000 audits te kunnen uitvoeren met gebruik van AI-agents, binnen het eigen assuranceplatform EY Canvas.
Britse toezichthouder biedt richtlijnen voor inzet AI bij audit
De Britse toezichthouder Financial Reporting Council (FRC) heeft eind maart jl. richtlijnen gepubliceerd voor de inzet van AI-tools bij auditopdrachten. Uitgangspunt:...
Beleggers willen weten hoe AI de audit verandert
Beleggers willen weten hoe de inzet van AI accountantscontroles verandert en of dit leidt tot scherpere inzichten in risico's en de verslaggeving. Dat is één van...
