AI, de spanning tussen technologie, regelgeving en vertrouwen

Wie houdt toezicht op AI? 

Artificial intelligence ontwikkelt zich snel. Chatbots schrijven teksten, algoritmes beoordelen sollicitaties en AI-systemen analyseren grote hoeveelheden data. Tegelijk groeit de vraag wie toezicht houdt op deze technologie. 

De Autoriteit Persoonsgegevens (AP) wil dat het kabinet sneller regels invoert voor het gebruik van AI. Volgens de toezichthouder ontbreekt er op dit moment duidelijk toezicht. Dat kan risico’s opleveren voor burgers. 

De kernvraag is dan ook: hoe zorgen we dat AI veilig wordt gebruikt? 

Wat zijn de risico’s? 

AI kan veel taken versnellen en automatiseren. Maar dezelfde technologie kan ook nieuwe problemen veroorzaken. 

De AP noemt een aantal voorbeelden: 

  • Deepfakes die mensen kunnen misleiden
  • AI-systemen die fraude ondersteunen
  • Chatbots die psychische schade kunnen veroorzaken 

Daarnaast kunnen algoritmes fouten maken wanneer ze beslissingen over mensen ondersteunen. Denk aan systemen die bepalen of iemand in aanmerking komt voor een lening, een baan of een uitkering. 

Het probleem zit vaak niet alleen in de technologie zelf, maar in hoe die wordt toegepast. 

Lessen uit eerdere systemen 

De toezichthouder wijst onder andere naar het toeslagenschandaal. Daar speelde een algoritme een rol bij het selecteren van mensen voor fraudeonderzoek. Veel gezinnen kwamen daardoor onterecht in grote problemen. Het systeem werkte met patronen en risicoprofielen. Maar die bleken in de praktijk discriminerend uit te pakken. De gevolgen waren groot en duurden jaren. 

Ook in andere sectoren zien we vergelijkbare voorbeelden. Zo zijn er algoritmes gebruikt om in te schatten of verdachten opnieuw een misdrijf zouden plegen. In sommige gevallen bleken die systemen verkeerde adviezen te geven. Dat laat zien hoe lastig het is om technologie te gebruiken voor beslissingen over mensen. 

Europese regels bestaan al

Op Europees niveau is inmiddels wetgeving aangenomen: de AI Act. Daarin staat onder meer dat ontwikkelaars van krachtige AI-systemen moeten aantonen dat hun modellen veilig zijn. Ze moeten testen of systemen betrouwbaar werken en welke risico’s er zijn. Maar Europese regels moeten ook nationaal worden uitgevoerd. 

Volgens de Autoriteit Persoonsgegevens is dat in Nederland nog niet volledig geregeld. Er moet onder meer een toezichthouder worden aangewezen en er moet capaciteit komen om toezicht daadwerkelijk uit te voeren. 

AI vergelijken met medicijnen 

De AP maakt een vergelijking met sectoren waar veiligheid al langer centraal staat. Voordat een medicijn op de markt komt, wordt het uitgebreid getest. Hetzelfde geldt voor auto’s. Fabrikanten moeten aantonen dat voertuigen veilig zijn voordat ze verkocht mogen worden. 

Voor AI-systemen zou een vergelijkbare aanpak kunnen gelden. De vraag is dan wie controleert of een systeem veilig genoeg is. 

Technologie ontwikkelt sneller dan regels 

AI ontwikkelt zich momenteel sneller dan wetgeving. Nieuwe toepassingen verschijnen vrijwel dagelijks. Dat maakt toezicht ingewikkeld. Regulering moet beschermen tegen risico’s, maar mag innovatie ook niet volledig afremmen. De discussie gaat daarom niet alleen over technologie, maar ook over verantwoordelijkheid. 

  • Wie controleert algoritmes?
  • Wie is aansprakelijk wanneer systemen fouten maken?
  • Hoeveel transparantie mogen burgers verwachten? 

Reflectie 

AI wordt steeds vaker gebruikt voor beslissingen die mensen raken. Dat kan efficiënt zijn, maar ook risico’s met zich meebrengen. De vraag is niet alleen wat AI technisch kan. De vraag is ook hoe we besluiten nemen over het gebruik ervan. Regels zijn daarbij één onderdeel van de oplossing. Toezicht en transparantie zijn minstens zo belangrijk. 

De discussie over AI gaat daarom niet alleen over technologie. Ze gaat ook over vertrouwen. 

Over Nick van Huizen
Nick van Huizen
Nick is een ervaren businessanalist en projectmanager met focus op modelering. Zijn passie ligt in het omzetten van data naar kennis en om dit uit te leggen aan het (senior) management en aan een breed publiek. Nick heeft 9 jaar in het Erasmus MC gewerkt en daar alle taken die behoren bij een wetenschappelijk project uitgevoerd. Van het schrijven van projectvoorstellen, het opzetten van samenwerkingen, laboratorium werkzaamheden uitvoeren, data analyse, tot het presenteren en publiceren van de resultaten. Voor Seventrees heeft Nick gewerkt bij Athlon als business analist en bij ABN-AMRO als business consultant/project manager.