AI-personeel bezorgd over slecht toezicht AI-bedrijven
Grote AI-bedrijven zoals OpenAI en Google Deepmind zijn niet transparant genoeg over de risico's van kunstmatige intelligentie. Financiële belangen dwarsbomen effectief toezicht en de governance van de AI-bedrijven steekt niet goed in elkaar.
Dat schrijven een aantal huidige en voormalige medewerkers van OpenAI en Google Deepmind in een open brief met de titel 'Het recht om te waarschuwen over geavanceerde kunstmatige intelligentie'.
Grote risico’s
De schrijvers denken dat AI "ongeëvenaarde voordelen voor de mensheid" kan opleveren, maar ze zien ook grote risico's, zoals het versterken van ongelijkheid, manipulatie, misinformatie en het verlies van controle over autonome AI-systemen, met als gevolg zelfs het mogelijk uitsterven van de mens. "AI-bedrijven erkennen zelf openlijk deze risico's, evenals overheden wereldwijd."
De medewerkers zeggen goede hoop te hebben dat de risico’s kunnen worden beperkt met behulp van academici, beleidsmakers en de maatschappij. AI-bedrijven hebben volgens hen echter "sterke financiële prikkels" om effectief toezicht te vermijden. "Wij geloven niet dat de huidige corporate governance voldoende is om dit te veranderen."
Geen effectief toezicht
AI-bedrijven beschikken volgens de schrijvers over "belangrijke niet-openbare informatie" over de mogelijkheden en beperkingen van hun systemen, de effectiviteit van beschermende maatregelen en de risiconiveaus van verschillende soorten schade die AI-systemen kunnen aanrichten. "Ze hebben momenteel echter slechts zwakke verplichtingen om deze informatie met regeringen te delen en geen enkele verplichting om informatie te delen met het maatschappelijk middenveld."
Zolang er geen effectief toezicht is vanuit overheden, zien de schrijvers zichzelf daarom als een van de weinigen die de AI-bedrijven publiekelijk ter verantwoording kunnen roepen. "Brede geheimhoudingsovereenkomsten weerhouden ons er echter van onze zorgen openlijk te uiten, behalve naar de bedrijven die momenteel juist mogelijk falen in het aanpakken van deze problemen. De gewone bescherming van klokkenluiders is onvoldoende, omdat die zich richt op illegale activiteiten, terwijl veel van de risico's waar wij ons zorgen over maken nog niet gereguleerd zijn."
Vergelding
De medewerkers zeggen bang te zijn voor verschillende vormen van vergelding vanuit de bedrijven, gezien de ervaringen van eerdere klokkenluiders in de sector. Zij pleiten daarom voor vier maatregelen:
- Geen geheimhoudingsovereenkomsten meer die medewerkers ervan weerhouden zich uit te spreken wanneer zij zich zorgen maken over risico's.
- Een nieuwe mogelijkheid voor huidige en voormalig medewerkers om geverifieerd, maar anoniem, meldingen te kunnen doen over risico's aan het bestuur, toezichthouders en onafhankelijke organisaties.
- Het stimuleren van een werkcultuur waarin openlijk kritiek uiten wordt gesteund, en waarin medewerkers zich openlijk kunnen uitspreken over risico's, op voorwaarde dat bedrijfsgeheimen en intellectueel eigendom beschermd blijven.
- Bedrijven moeten stoppen met vergelding tegen klokkenluiders die zich publiekelijk uitspreken, als alle andere manieren om een risico te melden binnen het bedrijf niets opleverden.
De schrijvers zeggen te snappen dat het niet de bedoeling is dat vertrouwelijke informatie onnodig openbaar wordt, maar wijzen erop dat de huidige en voormalige werknemers van AI-bedrijven vrij moeten zijn om hun zorgen openbaar te maken, zolang er geen goede bescherming is van klokkenluiders.
Reactie OpenAI
OpenAI laat in een reactie aan The Guardian weten dat het onder meer een tiplijn heeft voor medewerkers en dat het nieuwe technologie niet uitbrengt zonder adequate beschermingsmaatregelen. Verder zegt het bedrijf dat "rigoureuze debatten cruciaal zijn" vanwege het belang van de technologie en dat het in gesprek blijft met overheden, het maatschappelijk middenveld en andere organisaties.
Ceo Sam Altman heeft in een reactie tegen Vox ook gezegd dat het bedrijf de off-boarding procedures zal veranderen.
Open brief: 'A Right to Warn about Advanced Artificial Intelligence'
Gerelateerd
(Agentic) AI in de audit: tussen efficiëntie en illusie
Generatieve AI maakt de audit efficiënter, maar verandert de aard van de audit niet wezenlijk, stelt Pieter de Kok.
PwC gaat wereldwijde consultancypraktijk hervormen
PwC gaat de wereldwijde consultancypraktijk hervormen, om de grensoverschrijdende dienstverlening te verbeteren. Dat heeft ook te maken met de opkomst van AI.
AFM wil regels voor inzet AI-tools op kapitaalmarkten
Er moeten duidelijke regels over verantwoordelijkheden komen, voordat AI-hulpmiddelen op grotere schaal worden ingezet bij de handel op kapitaalmarkten. Dat zegt...
Sander Klous: 'Voorbij de AI-hype moeten wetenschap en bedrijfsleven werken aan beheersbaarheid'
Voorbij de AI-hype is het essentieel om te bouwen aan een infrastructuur waarin AI betrouwbaar kan functioneren. Daar ligt een uitdaging waar wetenschap en praktijk...
EY gaat AI-agents wereldwijd inzetten bij assurance-opdrachten
EY verwacht binnen drie jaar wereldwijd zo’n 160.000 audits te kunnen uitvoeren met gebruik van AI-agents, binnen het eigen assuranceplatform EY Canvas.
