Start een gesprek met
onze A.I. Assistent

Dit moet je weten over de A.I. Act

05-04-2024

In de zomer van 2023 heeft het Europees Parlement de A.I Act aangenomen. Deze Europese wet stelt strenge voorschriften vast voor zowel ontwikkelaars als gebruikers van A.I., met als doel de bescherming van de rechten van Europese burgers te waarborgen.

De aanleiding voor de A.I. Act

De A.I. Act is ontstaan vanuit de groeiende impact van kunstmatige intelligentie (A.I.) op diverse sectoren en de maatschappij als geheel. De snelle vooruitgang van A.I. technologieën heeft geleid tot toenemende zorgen over ethiek, transparantie en de bescherming van fundamentele rechten. Als reactie hierop heeft de Europese Unie besloten om een wettelijk kader op te stellen dat de ontwikkeling, implementatie en het gebruik van A.I. reguleert. De A.I. Act streeft ernaar om een balans te vinden tussen het bevorderen van innovatie en het waarborgen van de bescherming van individuen en de samenleving.

De A.I. Act beschermt tegen de gevaren van A.I.

Net zoals bij veel andere grote uitvindingen, kan ook A.I. met verkeerde bedoelingen gebruikt worden. Om ons daartegen te beschermen, heeft het Europees Parlement de A.I. Act in het leven geroepen. De A.I. Act is een Europese wet die dus Europeanen beschermt tegen de risico’s van A.I.. Er wordt verwacht dat de A.I. Act in 2026 ingaat.

A.I. verordening: per risico andere regels

De A.I. Act is ontworpen om de ontwikkeling, implementatie en het gebruik van A.I. te reguleren. Het maakt gebruik van verschillende risiconiveaus om aan te geven wat wel en niet is toegestaan bij het bouwen en gebruiken van A.I.. Door duidelijke richtlijnen te stellen voor onaanvaardbare, hoog-, beperkt en minimaal risico A.I., streeft de A.I. Act ernaar om de rechten, veiligheid en privacy van individuen te waarborgen.

Onaanvaardbaar risico

Hiermee wordt A.I. bedoeld die een directe bedreiging vormt voor mensen. Denk aan een A.I. systeem die menselijk gedrag manipuleert en hun kwetsbaarheden misbruikt. Een ander voorbeeld hiervan zijn A.I. die voorspelt of iemand een misdaad zal plegen, en social scoring op basis van koopgedrag of financiële situatie. Deze vormen van A.I. zijn verboden om te gebruiken of maken binnen de EU.

Hoog risico

Onder dit niveau valt A.I. die de rechten of veiligheid van mensen kan schaden. Denk aan A.I. die sollicitanten screent of de klimaatbeheersing in een kantoor regelt. De A.I. Act staat dergelijke A.I. onder strenge voorwaarden toe, waarbij volledige transparantie over het gebruik van gegevens vereist is. Daarbij is toezicht door mensen noodzakelijk. Dit om ervoor te zorgen dat de rechten en veiligheid van mensen niet wordt geschaad.

Beperkt risico

Een A.I. systeem met beperkt risico is bijvoorbeeld een chatbot. Mensen moeten zich ervan bewust zijn dat ze interactie hebben met een machine, in plaats van met een mens. Voor deze systemen geldt dan ook een transparantieverplichting.

Minimaal risico

Alle andere vormen van A.I. vallen onder dit niveau. Het zijn systemen die geen impact hebben op individuele personen. Ze kunnen volgens bestaande wetgeving worden ontwikkeld en gebruikt. Voorbeelden van A.I. systemen met een minimaal risico zijn zoekmachines en spamfilters.

De A.I. Act is van toepassing op iedereen die A.I. ontwikkelt, levert of toepast, ongeacht de branche.

De AVG in de A.I. Act

De AVG is ook een belangrijk onderdeel in de A.I. Act. De AVG is van toepassing op de verwerking van persoonsgegevens. Onder persoonsgegevens vallen alle gegevens over een persoon. Denk aan een naam, adres, identificatienummer en geboortedatum. Je kunt verschillende handelingen verrichten met deze persoonsgegevens, zoals verzamelen, ordenen, verzenden, gebruiken of ter beschikking stellen. Dit noem je ook wel verwerkingen. En bij de ontwikkeling en implementatie van A.I. kan ook al snel persoonsgegevensverwerking plaatsvinden. Voorbeelden hiervan zijn:

  • Persoonsgegevens die worden gebruikt om een A.I. systeem te trainen.
  • Persoonsgegevens die worden gebruikt door een A.I. systeem om een geautomatiseerde beslissing te nemen over een natuurlijk persoon.

Het gebruik van A.I. kan dus vaak gepaard gaan met het verzamelen, analyseren en verwerken van persoonsgegevens. Maar dit hoeft niet. Organisaties hebben namelijk zelf de mogelijkheid om dit wel of niet op te nemen in hun A.I. oplossing. Wanneer ze dit wel opnemen, moeten de A.I. systemen uiteraard wel voldoen aan de voorschriften die gelden onder de AVG.

Verantwoord A.I. inzetten?

Bij TrueLime hechten we veel waarde aan het verantwoord en ethisch inzetten van A.I.. Ons team  van A.I. specialisten staat klaar om je te begeleiden bij de implementatie en optimalisatie van A.I.-oplossingen, waarbij we streven naar een verantwoorde en ethische inzet van A.I. in jouw organisatie. Ons A.I. platform biedt features die aansluiten bij de A.I. Act, waaronder centraal beheer, AVG-compliance, grip op kosten, gebruiksanalyse, integratiemogelijkheden en schaalbaarheid. Met behulp van deze features in het platform kunnen de A.I. oplossingen op de juiste manier worden geconfigureerd. Zo voldoen ze conform de A.I. Act en de vereisten voor verantwoorde en ethische inzet van A.I. in jouw organisatie. Plan vrijblijvend een afspraak in en ontdek de mogelijkheden voor jouw bedrijf.

Bronnen: AI-wet | Shaping Europe’s digital future (europa.eu)

https://www.ey.com/nl_nl/ai/wat-betekent-de-ai-act-voor-mijn-organisatie
https://europadecentraal.nl/onderwerp/digitale-overheid/data-en-technologie/artificial-intelligence/

https://privacy-web.nl/nieuws/ai-in-actie-samenspel-tussen-ai-en-de-avg-2-12/

Wil jij het ook digitaal voor elkaar hebben?

Of het nu gaat om een nieuw concept of een complexe uitdaging, met slimme ideeën en innovatieve technologie komen we altijd tot een oplossing.

Ben je benieuwd hoe een intensieve, maar vooral leuke samenwerking er uit ziet?

Loop geen belangrijke updates mis!

Meld je aan voor onze nieuwsbrief en blijf op de hoogte van nieuwe artikelen, exclusieve webinars, interessante cases en de beste inzichten!