Klopt het dat ik AI-verplichtingen moet voorzien voor mijn personeel?

Als je AI gebruikt in jouw bedrijf, dan moet je sinds 5 februari 2025 inderdaad kunnen aantonen dat jouw personeel ‘AI-geletterd’ is. Dat volgt uit de nieuwe AI-act, en geldt dus enkel als je met AI werkt in jouw bedrijf (bijvoorbeeld als je Copilot of Chat-GPT gebruikt, een chatbot op jouw website hebt staan, …)

De regelgeving zegt evenwel niet waaruit die geletterdheid moet bestaan. Dat moet dus door elke werkgever zelf uitgewerkt worden, in functie van de nood van het personeel.

Het enige wat de AI-act zegt is:

“Aanbieders en gebruiksverantwoordelijken van AI-systemen nemen maatregelen om, zoveel als mogelijk, te zorgen voor een toereikend niveau van AI-geletterdheid bij hun personeel en andere personen die namens hen AI-systemen exploiteren en gebruiken, en houden daarbij rekening met hun technische kennis, ervaring, onderwijs en opleiding en de context waarin de AI-systemen zullen worden gebruikt, evenals met de personen of groepen personen ten aanzien van wie de AI-systemen zullen worden gebruikt.”

Denk daarbij bijvoorbeeld aan trainingen die het personeel wijzen op de potentiële risico’s van AI, de nodige basiskennis bijbrengen en ervoor zorgen dat de interne policies en richtlijnen van het bedrijf gekend en nageleefd worden. Als ze met complexere AI-systemen moeten werken, zal een bijkomende laag voorzien worden die bv ook de meer technische aspecten behandelt, of de specifieke risico’s die die systemen met zich mee kunnen brengen.

De wet zegt evenmin of dat via fysieke trainingen, mail, webinars, … moet gebeuren. Ook daar ben je dus vrij in als werkgever. Een mogelijke bron van best practices is deze database rond AI-geletterdheid. De Europese Commissie verzamelt hierin bestaande initiatieven van bedrijven, zonder evenwel te bevestigen dat deze voldoende zijn. 

Werkgevers moeten hun naleving van de verplichting ook intern documenteren.

Publieke afdwinging van deze en andere verplichtingen onder de AI Act gaat van start vanaf 2 augustus 2026. Private afdwinging naar nationaal recht (bv. een schadeclaim op basis van niet-naleving) is nu reeds mogelijk.

Naar AI-geletterdheid in 5 stappen

(bron: Cevora)

De AI Act verplicht bedrijven ook om de ‘AI-geletterdheid’ van hun medewerkers op peil te brengen. Dat wil zeggen dat je ze de vaardigheden, de kennis en het begrip bijbrengt om correct met AI om te gaan. Hier zijn 5 stappen die je als bedrijf kan zetten:

  1. Stel een AI-beleid op en creëer een organisatiebreed beleid voor het gebruik van AI. Zet daarin richtlijnen over ethiek, transparantie en toezicht.
     
  2. Maak een inventarisatie van alle AI-systemen binnen de organisatie. Zo krijg je een overzicht van alle gebruikte toepassingen.
     
  3. Breng de AI-kennis van je medewerkers in kaart. Stel vast welk niveau van AI-geletterdheid je medewerkers al hebben en welke kennis ze nog moeten opdoen.
     
  4. Boost ook effectief de AI-geletterdheid van je medewerkers. Denk aan trainingen of cursussen die hen helpen om hun AI-kennis uit te breiden.
     
  5. Vergeet niet om regelmatig te evalueren. AI verandert snel, waardoor je je ook steeds zal moeten bijscholen.

Fout opgemerkt? Laatst gewijzigd: 02/09/2025

Welke impact heeft de AI Act op jouw bedrijf?

Van spamfilter over chatbots tot slimme wervingsprocessen. Waar ligt de grens voor wat wel en niet kan met AI? Sinds februari 2025 is de AI Act van kracht en reguleert de EU het AI-gebruik, met speciale aandacht voor AI-geletterdheid.

De 4 risiconiveaus van de AI Act

De AI Act komt er om verantwoord AI-gebruik bij bedrijven te stimuleren, de rechten van individuen te beschermen en te zorgen voor een veilige implementatie van AI-tools. Hoe kleiner het risico van een AI-toepassing, hoe losser de regels. Er zijn 4 categorieën:

  1. Minimaal risico

Onder deze categorie vallen onschuldige AI-implementaties zoals een spamfilter die de ongewenste mail uit je inbox houdt of een chatbot. Dit zijn de meest gebruikte AI-toepassingen binnen de EU en die mag je vrij hanteren.

  1. Beperkt risico

De bekendste toepassingen in deze categorie zijn generatieve AI-tools, zoals ChatGPT. Transparantie is hier de boodschap. AI-gegenereerde inhoud moet duidelijk herkenbaar zijn, via een label bijvoorbeeld.

  1. Hoog risico

Vormt een AI-toepassing een mogelijk risico op het gebied van gezondheid, veiligheid of basisrechten? Dan krijg je te maken met strenge controles. Denk aan AI-systemen die biometrische gegevens gebruiken tijdens wervingsprocessen of de kredietwaardigheid van mensen beoordelen. Je moet risicoanalyses uitvoeren, data-input onder de loep nemen, alles wat je doet documenteren ...

  1. Onaanvaardbaar risico

Toepassingen die een regelrechte bedreiging voor de veiligheid of het welzijn vormen, zijn door de AI Act strikt verboden. We spreken dan bijvoorbeeld over emotieherkenning op de werkvloer of een sociale score toekennen op basis van gedrag.

Uitrol van de AI Act in 3 fases

Hoe vertalen de 4 risiconiveaus van de AI Act zich nu naar de praktijk? Wel, de toepassing volgt in 3 fases.

  1. De eerste fase ging in op 1 februari 2025. Onaanvaardbare AI is verboden en medewerkers moeten AI-geletterd zijn.
     
  2. Vanaf 1 augustus 2025 moet je voldoen aan de bepalingen van AI met een beperkt risico.
     
  3. Vanaf 1 augustus 2026 moeten ook alle toepassingen met een hoog risico conform zijn aan de wetgeving.

Hoe kan Cevora je helpen?

Hoe sneller je op de kar springt, hoe sneller je bedrijf wegwijs raakt in de AI-revolutie. En daar helpt Cevora, de opleidingspartner van het paritair comité 200, je graag bij.

 

Met kosteloze opleidingen & webinars zorgen we dat je helemaal mee bent.

Bekijk hier het volledige aanbod van Cevora

Fout opgemerkt? Laatst gewijzigd: 02/09/2025

Nuttig voor jou