/ai-geletterdheid-in-de-organisatie-van-strategie-naar-praktijk/ 2025-05-01T08:07:10+00:00 fc53659d
Ga naar de inhoud
28 april 2025 • Nieuws

AI-geletterdheid in de organisatie: van strategie naar praktijk

Vanaf 2 februari 2025 moeten organisaties zorgen dat hun werknemers AI-geletterd zijn. Dit is een verplichting vanuit de AI Act. In de wet staat niet beschreven welke maatregelen er precies genomen moeten worden. De mate van kennis hangt af van de wijze waarop AI binnen de organisatie wordt toegepast. In dit artikel geven we handvatten om hier een start mee te maken.

Ontwerp zonder titel (52)

AI Act

De AI Act (AI-verordening) is een Europese wet die ten doel heeft innovatie te bevorderen en tegelijkertijd de risico’s die AI met zich meebrengt te beheersen. Hierbij wordt speciale aandacht gevestigd op fundamentele rechten en waarden van de burgers binnen de Europese Unie, waaronder privacy. Conform artikel 4 van de AI Act moeten organisaties zorgdragen voor een voldoende kennisniveau van medewerkers op het gebied van AI. Het kennisniveau moet passend zijn bij de werkzaamheden van medewerker. Dit betekent dat hoe groter de risico’s en het effect van de AI toepassing zijn, hoe hoger het niveau van de medewerkers dient te zijn op het gebied van vaardigheden, kennis en begrip.

AI toepassingen in kaart brengen

AI geletterdheid is duidelijk geen one-size-fits-all model. Iedere organisatie moet inschatten welk niveau van AI-geletterdheid passend is. In praktijk begint het met het in kaart brengen van de AI toepassingen binnen de organisatie. Op welke wijze wordt AI ingezet en wil de organisatie in de nabije toekomst AI gaan inzetten? Vervolgens dient per toepassing bepaald te worden wat het risiconiveau is en welk effect de toepassing heeft op de betrokken personen.

4 risiconiveaus

De AI Act gaat uit van vier risiconiveaus. Veel organisaties maken gebruik van toepassingen met geen of een minimaal risico voor de veiligheid en fundamentele rechten van de betrokken personen. Denk hierbij aan spamfilters of games. Ook toepassingen met beperkt risico komen vaak voor. Een voorbeeld hiervan is een chatbot. De derde categorie zijn systemen met hoog risico. Dit zijn toepassingen die grotere gevolgen hebben voor de betrokken personen. Bijvoorbeeld een AI-systeem dat automatisch cv’s selecteert voor een volgende ronde in een wervingsprocedure. Ook software die bepaalt of iemand wel of geen lening krijgt valt binnen deze categorie. In dergelijke gevallen kunnen bias, uitsluiting of schending van privacyrechten reële risico’s vormen. Ten slotte zijn er systemen met onaanvaardbaar risico. Een voorbeeld hiervan is ‘social scoring’ op basis van bepaald sociaal gedrag op persoonlijke kenmerken. Dit laatste type AI is verboden.

AI geletterdheid

In welke categorie het AI-systeem valt, bepaalt welke verplichten vanuit de AI Act van toepassing zijn. Als het gaat om AI-geletterdheid zijn bij hoog-risicotoepassingen meer vaardigheden, kennis en begrip nodig dan bij een lager risiconiveau. Naast risiconiveau zijn ook de context van de AI toepassing, rol van de specifieke medewerker en beschikbare middelen van de organisatie van belang. Grotere organisaties zullen waarschijnlijk meer middelen ter beschikking hebben dan kleinere organisaties.

De AI geletterdheid betreft niet alleen de technische werking, maar gaat ook over de sociale, ethische en praktische aspecten. De medewerker die met het systeem werkt moet begrijpen hoe de output van de AI toepassing geïnterpreteerd moet worden en welke invloed dit heeft op de betrokken personen. Ten slotte is periodiek evalueren essentieel. Ontwikkelingen gaan snel, zeker op het gebied van AI. Dit maakt AI-geletterdheid geen eenmalige exercitie maar een doorlopend proces.

In praktijk

Begin met het bespreekbaar maken van het onderwerp AI binnen de organisatie. Organiseer een training of e-learning of bespreek het onderwerp tijdens een medewerkersbijeenkomst. Zorg voor bewustwording door berichten te posten op het interne nieuwskanaal en zet het onderwerp op de agenda van teamoverleggen. Betrek medewerkers uit verschillende teams en breng een gesprek op gang waarbij nagedacht wordt over de wijze waarop AI gebruikt wordt en wat de mogelijke gevolgen zijn voor de betrokkenen. Om ervoor te zorgen dat ook bij toepassingen in de toekomst tijdig nagedacht wordt over de risico’s kan een werkgroep opgezet worden van AI-ambassadeurs. Zij kunnen de knelpunten signaleren, vragen ophalen en de AI-geletterdheid binnen de eigen teams bevorderen.

Hulp nodig?

Heeft uw organisatie ondersteuning nodig bij het ontwikkelen of implementeren van AI-geletterdheid of andere AVG-gerelateerde vraagstukken? Neem dan contact met ons op.


Heeft u vragen naar aanleiding van dit artikel?

Neem dan contact met ons op.