/wetgevingsjargon-vlops-doxing-iamas-begrijpt-u-het-nog/ 2025-03-31T18:02:32+00:00 82663c74
Ga naar de inhoud
14 februari 2024 • Nieuws

Wetgevingsjargon: VLOPs, Doxing, IAMA’s; begrijpt u het nog?

Een greep uit de actualiteit van afgelopen weken leert ons dat de KRO-NCRV stopt met het gebruik van X (voorheen Twitter) na racistische uitlatingen aan het adres van Akwasi. X wordt er al langer van beticht de DSA onvoldoende na te leven door niet op te treden tegen racistische uitlatingen. We lezen ook dat databedrijven kritiek krijgen omdat zij adressen van bekende personen verhandelen, welke zomaar gebruikt kunnen worden voor doxing. De actualiteit staat bol van referenties naar nieuwe online en datagerelateerde wetgeving met termen als VLOPs, doxing, FRIA en foundation models. We geven hieronder een korte uitleg van deze veelgehoorde termen, de wet- en regelgeving waar ze hun oorsprong vinden en hoe ze verbonden zijn met de actualiteit.

DMCC Group - Consultancy 18

VLOPs

Very Large Online Platforms; denk aan Google, Meta, Apple, X.

Waar kom je dit tegen?

In de DSA, de Digital Services Act. Sinds 2023 moeten zeer grote online platformen (maandelijks meer dan 45 miljoen bezoekers) zich houden aan de DSA. Daar staat onder andere in dat burgers beschermd moeten worden tegen desinformatie, nepnieuws en schendingen van grond- en mensenrechten.

Hoe is dit actueel?

KRO-NCRV stopt met het gebruik van X na racistische en haatdragende uitingen van X-gebruikers richting Akwasi naar aanleiding van zijn deelname aan De Slimste Mens. X ligt al langer onder vuur. Volgens Eurocommissaris Thierry Breton houdt het platform zich al tijden niet aan de DSA, door niet op te treden tegen desinformatie en haatberichten.

Doxing

Doxing is het verzamelen en publiceren van persoonlijke gegevens. Doxing betekent een document (‘doc’ vandaar: ‘doxing’) maken met persoonlijke gegevens met als doel deze te publiceren. Het doel hiervan is om mensen te intimideren, te chanteren of om wraak te nemen. Denk bijvoorbeeld aan adresgegevens die online gezet worden van politici, journalisten, maar ook in geval van privé personen.

Waar kom je dit tegen?

Doxing is ondergebracht in Artikel 285d van het Wetboek van Strafrecht.

Hoe is dit actueel?

Doxing is per 1 januar jl. strafbaar gesteld. RTL Nieuws bericht intussen dat databedrijven stilzwijgend handelen in persoonsgegevens van miljoenen Nederlanders. Uit onderzoek bleek dat in de databases van kredietinformatiebureaus thuisadressen te vinden zijn van bedreigde bewindslieden, journalisten en advocaten. Volgens deze databureaus hebben alleen WPBR (Wet Particuliere Beveiligingsorganisaties en Recherchebureaus) geregistreerde beveiligings- en recherchebureaus toegang tot de database. Hieronder vallen duizenden bedrijven. Echter heeft RTL Nieuws signalen gekregen dat ook niet-WPBR-geregistreerde bedrijven eveneens toegang hebben tot de databases. Met andere woorden; enerzijds worden persoonsgegevens verhandeld zonder hier transparant over te informeren (AVG vereiste!) én het is voor een hoop mensen kinderlijk eenvoudig om aan privé gegevens te komen die gebruikt zouden kunnen worden voor doxing.

FRIA / IAMA:

Fundamental Rights Impact Assessment, en daarmee samenhangend: IAMA: Impact Assessment Mensenrechten en Algoritmen

Waar kom je dit tegen?

In de AI Act. In december is een politiek akkoord gekomen op de AI act, maar het duurt nog tot 2025 of 2026 tot de AI Act officieel van kracht is. Wel kunnen bepaalde vereisten versneld worden ingevoerd.

Hoe is dit actueel?

De AI Act gaat uit van een risico gebaseerde aanpak. De AI Act zal organisaties die AI met een hoog risico gebruiken of ontwikkelen, verplichten om een Fundamental Rights Impact Assessment uit te voeren. Denk aan AI die word ingezet ten behoeve van medische apparatuur, voertuigen, biometrische identificatie. Overheidsorganisaties werken vaak al met een IAMA en wanneer zij gebruik maken van algoritmen registreren zij dit in het algoritmeregister. Het algoritmeregister moet eind 2025 up-to-date zijn. Dit komt voort uit het IKA, het Implementatiekader voor verantwoorde inzet van algoritmen. De overheid loopt hiermee vooruit op de komst van de AI Act. Andere organisaties zullen nu nog werken met een DPIA (Data Protection Impact Assessment) wanneer zij (gaan) werken met AI en/of algoritmen.

Foundation Models:

‘Basismodellen’; een foundation model is een deep learning algoritme dat vooraf is getraind met extreem grote datasets.

Waar kom je dit tegen:

In technische informatie over AI, maar ook weer in de AI Act. Er komen specifieke regels voor Foundation models.

Hoe is dit actueel:

Onder het grote publiek is het bekendste foundation model: GPT (dus zonder de ‘Chat’ ervoor). GPT staat voor Generative Pre-trained Transformer en is een Large Language Model (LLM) – volgt u het nog? GPT is een foundation model dat is ontwikkeld door Open AI. De bekendste toepassing ervan is, jawel: ChatGPT. ChatGPT zal met de komst van de AI Act, dus gebonden zijn aan specifieke regels.

Wij hopen u met dit artikel weer wat duidelijkheid te hebben gegeven over de actualiteit en wetgeving. Uiteraard houden wij u op de hoogte van de ontwikkelingen die gepaard gaan met nieuwe wetgeving als het gaat om privacy en aanverwante onderwerpen. Heeft u in de tussentijd vragen over de inzet van AI of algoritmen? Of bent u al begonnen met een IAMA/DPIA en loopt u vast? Of heeft u een leuk idee voor een volgend artikel of onderwerp dat we kunnen behandelen?  Neem dan contact met ons op.


Heeft u vragen naar aanleiding van dit artikel?

Neem dan contact met ons op.