arrow btn arrow right arrow left chevron chevron mouse pulser checkmark date calendar calendar
AI Blauw

Europese Commissie doet voorstel voor wetgeving Artificial Intelligence

Artikel
Laatst gewijzigd 10 oktober 2023

De Europese Commissie heeft op 21 april een voorstel voor een verordening voor Artificial Intelligence (AI) gepresenteerd. Het doel hiervan is tweeledig: de veiligheid en de grondrechten van mensen en bedrijven waarborgen en het draagvlak voor AI, investeringen en innovatie in de EU versterken. Het is een conceptverordening die nog door het Europees Parlement en de Europese Raad moet worden beoordeeld. Het kan nog een tijd duren voordat er een definitieve versie is.

De verordening is van toepassing op bedrijven binnen en buiten de EU. Het gaat erom of zij een AI-systeem in de EU in de handel brengen of een AI-systeem gebruiken dat impact heeft op burgers van de EU.

Risico-benadering

In het voorstel wordt AI gedefinieerd op basis van technologieën achter de systemen, zoals machine learning. Deze technologieën worden in een bijlage beschreven die kan worden aangepast aan nieuwe technologieën.

De verordening gaat uit van een risico-gebaseerde aanpak. Er wordt onderscheid gemaakt tussen AI-systemen met een:

  1. Onaanvaardbaar risico
  2. Een hoog risico of
  3. Een beperkt of minimaal risico

Onaanvaardbaar risico

AI-systemen die een duidelijke bedreiging vormen voor de veiligheid, bestaansmiddelen of grondrechten van mensen vormen een onaanvaardbaar risico en worden verboden. Denk aan AI-systemen die menselijk gedrag manipuleren. Of aan 'real time' gezichtsherkenning op openbare plaatsen. Voor opsporingsautoriteiten worden zeer beperkte uitzonderingen gemaakt.   

Hoog risico

Daarnaast zijn er AI-toepassingen waar volgens de Europese Commissie een hoog risico aan kleeft. Denk daarbij aan AI voor kritieke infrastructuur, zoals vervoer, die het leven en de gezondheid van mensen in gevaar brengen.

AI-systemen die veiligheidscomponenten van producten zijn of producten zijn die volgens EU-productwetgeving door onafhankelijke derden moeten worden gecertificeerd worden ook beschouwd als 'hoog-risico'-systemen. In dit verband wordt verwezen naar machines, voertuigen, liften en medische apparatuur. Deze categorie is vooral van belang voor de technologische industrie.  

AI-systemen met een hoog risico zullen aan strikte eisen moeten voldoen voordat zij in de handel mogen worden gebracht, zoals:

  • adequate systemen voor risicobeoordeling- en beperking;
  • hoge kwaliteit van datasets die het systeem voeden om risico’s en discriminerende resultaten zoveel mogelijk uit te sluiten;
  • registratie van activiteiten om de traceerbaarheid van beslissingen in de AI-systemen te kunnen waarborgen;
  • gedetailleerde documentatie met alle nodige informatie om de autoriteiten in staat te stellen het doel en de conformiteit van het systeem te beoordelen;
  • duidelijke en adequate informatie voor gebruikers;
  • passend menselijk toezicht om de risico’s tot een minimum te beperken;
  • sterke robuustheid, beveiliging en nauwkeurigheid.

Beperkt risico en minimaal risico

Voor AI-systemen met een beperkt risico gelden specifieke transparantieverplichtingen. Zo moeten gebruikers van chatbots ervan bewust worden gemaakt dat zij contact hebben met een machine. Voor AI-systemen met een minimaal risico, zoals videogames en spamfilters, gelden geen nadere regels.

Voor AI-systemen met een beperkt of minimaal risico bepleit de Europese Commissie gedragscodes.

Governance

De bevoegde nationale markttoezichtautoriteiten zullen moeten toezien op de nieuwe regels. Een op te richten Europees Comité voor kunstmatige intelligentie zal de uitvoering van de regels moeten faciliteren en de ontwikkeling van gedragscodes voor AI stimuleren.  

Er zijn boetes opgenomen voor overtredingen van de regels in de verordening die kunnen oplopen tot € 30 miljoen of 6% van de wereldwijze omzet indien dat hoger is, afhankelijk van de overtreding.

Standpunt FME

FME steunt het standpunt van Orgalim, de Europese organisatie voor de technologische industrie, waarin FME participeert. Volgens Orgalim:

  • moet meer duidelijkheid worden gecreëerd rond de definitie van AI-systemen; 
  • moeten industriële AI-systemen niet op basis van algemene criteria als hoog risico worden gedefinieerd. Hierover dient een risicoanalyse tezamen met de technologische industrie plaats te vinden;  
  • moeten industriële AI-systemen die als hoog risico worden gekwalificeerd niet automatisch worden gekoppeld aan certificatie door onafhankelijke derden. Deze kunnen ook onder de productwetgeving door de fabrikant zelf verplicht worden voorzien van de juiste informatie en testresultaten;
  • ontbreekt een duidelijke samenhang met overige EU-productwetgeving; 
  • moet de technologische industrie advies en expertise kunnen verstrekken aan het Europees Comité voor kunstmatige intelligentie.

Inloggen in MijnFME

Exclusief voor leden
Sluiten