Wat is een onaanvaardbaar risico volgens de AI Act?
Als we het hebben over onaanvaardbaar risico's in de AI Act, duiken we in de strengste categorie van kunstmatige intelligentie regelgeving in de Europese Unie.
De AI Act trekt een duidelijke lijn tussen wat is toegestaan en wat niet, met als doel mensen te beschermen tegen technologie die ernstige schade kan aanrichten. Zie het als een vangnet voor de samenleving, dat ervoor zorgt dat AI zich niet op gevaarlijk terrein begeeft.
Het label onacceptabel risico AI Act is voorbehouden aan systemen die fundamentele rechten, veiligheid of de democratie zelf bedreigen. Dit zijn niet zomaar kleine foutjes of glitches.
Deze categorie vertegenwoordigt het hoogste risiconiveau en staat zelfs boven AI met hoog risico volgens de AI Act. Hoewel systemen op dit niveau aanzienlijke schade kunnen veroorzaken, gaat onaanvaardbaar risico AI verder dan dat.
Voorbeelden van onaanvaardbaar risico onder de AI Act
De AI Act geeft verschillende voorbeelden van wat een onacceptabel risico is. Een groot voorbeeld is social scoring door overheden, waarbij mensen worden gerangschikt op basis van hun gedrag of persoonlijke eigenschappen.
Een andere categorie is het gebruik van AI om beslissingen van mensen te manipuleren op een manier die hen schade zou kunnen berokkenen, vooral als ze kwetsbaar zijn. Systemen die gebruik maken van real-time biometrische identificatie in openbare ruimtes, zoals gezichtsherkenning, vallen ook onder deze categorie, tenzij ze voldoen aan zeer strikte uitzonderingen.
Deze vormen van AI worden als te riskant gezien omdat ze kunnen leiden tot discriminatie, verlies van privacy of zelfs massasurveillance. De categorie AI-wet met onaanvaardbaar risico is bedoeld om deze praktijken te stoppen voordat ze beginnen.
In het volgende hoofdstuk gaan we dieper in op voorbeelden die onaanvaardbare risico's onder de AI Act illustreren.
Wat gebeurt er als een AI-systeem als onacceptabel risico wordt bestempeld?
Als een AI-systeem wordt bestempeld als een onacceptabel risico onder de AI-wet, dan is het simpel: het mag niet worden gebruikt in de EU. Bedrijven en organisaties moeten deze systemen van de markt halen en de ontwikkeling ervan stoppen.
Deze categorie was de eerste die van kracht werd onder de tijdlijn van de AI Act. De categorie is in februari 2025 ingevoerd. Andere categorieën met een lager risiconiveau volgen later.
Er staan strenge straffen op het overtreden van deze regels, waaronder zware boetes. Deze aanpak geeft een duidelijk signaal af dat sommige toepassingen van AI simpelweg verboden terrein zijn, hoe geavanceerd de technologie ook wordt.
Welke voorbeelden illustreren onaanvaardbare risico's volgens de AI Act?
De AI Act trekt een duidelijke lijn in het zand als het gaat om wat zij beschouwt als onacceptabele risico's. Dit zijn toepassingen van kunstmatige intelligentie die de veiligheid, rechten of waardigheid van mensen bedreigen op manieren die volgens de wetgevers nooit zouden mogen worden toegestaan.
Om de dingen kristalhelder te maken, geeft de wet specifieke voorbeelden die binnen dit verboden gebied vallen. Laten we de meest opvallende voorbeelden eens nader bekijken, waarbij elk voorbeeld precies laat zien hoe de wet zijn grenzen trekt.
1. Biometrische identificatie in openbare ruimtes
Stel je voor dat je over een druk stadsplein loopt. Overal zijn camera's die stilletjes gezichten scannen en ze matchen met een database. Je hebt niets verkeerd gedaan, maar het systeem kijkt altijd, vergelijkt altijd.
Dit is biometrische identificatie in openbare ruimtes en volgens de AI Act is dit een uitstekend voorbeeld van een onaanvaardbaar risico. De wet zegt dat het gebruik van AI om mensen in realtime te identificeren, zonder hun toestemming, een grens overschrijdt.
Het gaat niet alleen om privacy. Het gaat om het gevoel bekeken te worden, het verlies van anonimiteit en de kans op misbruik. De wet maakt het duidelijk: dit soort surveillance is niet toegestaan, behalve in zeer zeldzame gevallen zoals het zoeken naar een vermist kind of het voorkomen van een terroristische aanslag.
2. Sociaal scoren door overheden
Stel je nu een wereld voor waarin elke actie die je onderneemt wordt bijgehouden en beoordeeld. Heb je je rekeningen op tijd betaald? Ben je op de juiste plaats overgestoken? Heb je online iets kritisch gezegd over de overheid?
Op sommige plekken is dit niet zomaar een gedachte-experiment. Sociale scoresystemen gebruiken AI om scores toe te kennen aan mensen op basis van hun gedrag en die scores kunnen van invloed zijn op alles, van je mogelijkheden om te reizen tot je toegang tot diensten.
De AI-wet noemt dit een onaanvaardbaar risico. Waarom? Omdat het eerlijkheid, gelijkheid en vrijheid ondermijnt. Het creëert een maatschappij waarin mensen worden beoordeeld en gecontroleerd door algoritmes, niet door wetten of menselijk oordeel. De wet trekt hier een harde lijn en verbiedt deze systemen regelrecht.
3. Manipulatie van kwetsbare groepen
Tot slot, bedenk eens hoe krachtig AI kan zijn als het gaat om het beïnvloeden van beslissingen van mensen. Stel je nu voor dat die macht gericht is op kinderen, ouderen of iedereen die misschien niet in staat is om zichzelf te verdedigen.
De AI Act zegt dat het gebruik van AI om kwetsbare groepen te manipuleren simpelweg niet acceptabel is. Dit zou kunnen betekenen dat je je richt op kinderen met verslavende spelletjes, of dat je gebruik maakt van overredende technologie om oudere volwassenen over te halen dingen te kopen die ze niet nodig hebben.
De wet erkent dat sommige mensen extra bescherming nodig hebben en grijpt in om die te bieden. Manipulatie van kwetsbare groepen wordt niet alleen afgekeurd, het is verboden, punt uit.
Waarom het definiëren van onaanvaardbare risico's nodig is
Toen wetgevers in de Europese Unie de AI Act ontwierpen, waren ze er niet op uit om innovatie in de kiem te smoren. Een grens trekken tussen acceptabele en onacceptabele toepassingen van AI is niet alleen een bureaucratische exercitie. Het is een morele en praktische waarborg, bedoeld om ervoor te zorgen dat technologie de mensheid dient en niet andersom.
Grondrechten beschermen
In de kern gaat het begrip onaanvaardbaar risico over het verdedigen van de principes die ten grondslag liggen aan democratische samenlevingen. Je kunt hierbij denken aan privacy, gelijkheid, vrijheid en menselijke waardigheid.
Zonder duidelijke grenzen kan AI gemakkelijk worden gebruikt op manieren die deze waarden uithollen. Door bepaalde toepassingen met een hoog risico zonder meer te verbieden, versterkt de EU een eenvoudige waarheid: sommige technologieën zijn te krachtig of te ingrijpend om zonder strikte grenzen te vertrouwen.
Vertrouwen scheppen in kunstmatige intelligentie
Vertrouwen is de basis van technologische adoptie. Als mensen het gevoel hebben dat AI op een verantwoorde manier wordt ontwikkeld en gebruikt, zullen ze het eerder omarmen in hun dagelijks leven. Het definiëren van onaanvaardbare risico's helpt om dat vertrouwen op te bouwen.
Door schadelijke of manipulatieve AI-systemen buiten beschouwing te laten, geeft de EU haar burgers het signaal dat AI zowel geavanceerd als ethisch kan zijn. Deze duidelijkheid helpt ook bedrijven door voorspelbare regels op te stellen: ze weten wat verboden terrein is en kunnen binnen die grenzen vol vertrouwen innoveren.
Onomkeerbare schade voorkomen
AI technologie ontwikkelt zich met een ongelofelijke snelheid, vaak sneller dan de maatschappij zich kan aanpassen. Sommige systemen kunnen, eenmaal ingezet, gevolgen hebben die bijna onmogelijk terug te draaien zijn. Voorbeelden hiervan zijn massasurveillance, diepgaande sociale manipulatie of discriminatie die is ingebakken in geautomatiseerde besluitvorming.
Het onaanvaardbare risico onder de AI Act is een preventief instrument. Het stopt de gevaarlijkste systemen voordat ze schade kunnen aanrichten, in plaats van te proberen schade te herstellen nadat deze al is aangericht. In die zin is het niet zomaar een regel. Het is een vorm van maatschappelijke verzekering.




