AI, de spanning tussen technologie, regelgeving en vertrouwen
Wie houdt toezicht op AI?
Artificial intelligence ontwikkelt zich snel. Chatbots schrijven teksten, algoritmes beoordelen sollicitaties en AI-systemen analyseren grote hoeveelheden data. Tegelijk groeit de vraag wie toezicht houdt op deze technologie.
De Autoriteit Persoonsgegevens (AP) wil dat het kabinet sneller regels invoert voor het gebruik van AI. Volgens de toezichthouder ontbreekt er op dit moment duidelijk toezicht. Dat kan risico’s opleveren voor burgers.
De kernvraag is dan ook: hoe zorgen we dat AI veilig wordt gebruikt?
Wat zijn de risico’s?
AI kan veel taken versnellen en automatiseren. Maar dezelfde technologie kan ook nieuwe problemen veroorzaken.
De AP noemt een aantal voorbeelden:
- Deepfakes die mensen kunnen misleiden
- AI-systemen die fraude ondersteunen
- Chatbots die psychische schade kunnen veroorzaken
Daarnaast kunnen algoritmes fouten maken wanneer ze beslissingen over mensen ondersteunen. Denk aan systemen die bepalen of iemand in aanmerking komt voor een lening, een baan of een uitkering.
Het probleem zit vaak niet alleen in de technologie zelf, maar in hoe die wordt toegepast.
Lessen uit eerdere systemen
De toezichthouder wijst onder andere naar het toeslagenschandaal. Daar speelde een algoritme een rol bij het selecteren van mensen voor fraudeonderzoek. Veel gezinnen kwamen daardoor onterecht in grote problemen. Het systeem werkte met patronen en risicoprofielen. Maar die bleken in de praktijk discriminerend uit te pakken. De gevolgen waren groot en duurden jaren.
Ook in andere sectoren zien we vergelijkbare voorbeelden. Zo zijn er algoritmes gebruikt om in te schatten of verdachten opnieuw een misdrijf zouden plegen. In sommige gevallen bleken die systemen verkeerde adviezen te geven. Dat laat zien hoe lastig het is om technologie te gebruiken voor beslissingen over mensen.
Europese regels bestaan al
Op Europees niveau is inmiddels wetgeving aangenomen: de AI Act. Daarin staat onder meer dat ontwikkelaars van krachtige AI-systemen moeten aantonen dat hun modellen veilig zijn. Ze moeten testen of systemen betrouwbaar werken en welke risico’s er zijn. Maar Europese regels moeten ook nationaal worden uitgevoerd.
Volgens de Autoriteit Persoonsgegevens is dat in Nederland nog niet volledig geregeld. Er moet onder meer een toezichthouder worden aangewezen en er moet capaciteit komen om toezicht daadwerkelijk uit te voeren.
AI vergelijken met medicijnen
De AP maakt een vergelijking met sectoren waar veiligheid al langer centraal staat. Voordat een medicijn op de markt komt, wordt het uitgebreid getest. Hetzelfde geldt voor auto’s. Fabrikanten moeten aantonen dat voertuigen veilig zijn voordat ze verkocht mogen worden.
Voor AI-systemen zou een vergelijkbare aanpak kunnen gelden. De vraag is dan wie controleert of een systeem veilig genoeg is.
Technologie ontwikkelt sneller dan regels
AI ontwikkelt zich momenteel sneller dan wetgeving. Nieuwe toepassingen verschijnen vrijwel dagelijks. Dat maakt toezicht ingewikkeld. Regulering moet beschermen tegen risico’s, maar mag innovatie ook niet volledig afremmen. De discussie gaat daarom niet alleen over technologie, maar ook over verantwoordelijkheid.
- Wie controleert algoritmes?
- Wie is aansprakelijk wanneer systemen fouten maken?
- Hoeveel transparantie mogen burgers verwachten?
Reflectie
AI wordt steeds vaker gebruikt voor beslissingen die mensen raken. Dat kan efficiënt zijn, maar ook risico’s met zich meebrengen. De vraag is niet alleen wat AI technisch kan. De vraag is ook hoe we besluiten nemen over het gebruik ervan. Regels zijn daarbij één onderdeel van de oplossing. Toezicht en transparantie zijn minstens zo belangrijk.
De discussie over AI gaat daarom niet alleen over technologie. Ze gaat ook over vertrouwen.




