De EU AI Act voor marketeers: wat je nu moet regelen
AI is allang geen “tooltje” meer. Het zit in zoekmachines, advertentieplatforms, contentproductie en klantenservice. En precies daarom is de EU AI Act relevant voor marketeers: niet omdat je ineens jurist moet worden, maar omdat je als organisatie aantoonbaar verantwoord met AI moet omgaan.
In deze blog vat ik de belangrijkste implicaties samen, op basis van ons gesprek met Mark Zijlstra (Head of Legal Technology bij ICTRecht) in de podcast “SEO & AI”.
Waarom AI voor compliance zoveel gevoeliger is dan “gewoon Google”
Bij Google zie je (meestal) nog steeds de bron: je klikt door en je kunt beoordelen wie iets zegt. Generatieve AI werkt anders: het voorspelt een antwoord op basis van patronen in trainingsdata. Dat maakt twee risico’s groter.
Ten eerste: fouten schalen. Een kleine onjuistheid, bias of vooringenomenheid is bij één persoon beperkt. Als AI dat produceert en je zet het op je website, in een advertentie of in je helpdesk, schaal je het probleem meteen naar publiek en klantcontact.
Ten tweede: bron-onzekerheid. Als je niet zeker weet waar iets vandaan komt, is het lastiger om claims te verifiëren en om auteursrechtelijke risico’s goed in te schatten.
Jij blijft verantwoordelijk voor de output
De belangrijkste reality check uit het gesprek: of jij iets met AI maakt, met Canva, met Photoshop of “handmatig”, jij (of je organisatie) blijft verantwoordelijk voor wat er gepubliceerd wordt. AI is geen schild. Het is hooguit een versneller en versnellers vergroten fouten als je geen checks hebt ingebouwd.
In de praktijk betekent dat: AI-output moet door een inhoudelijk verantwoordelijke worden gecontroleerd voordat het live gaat. Zeker bij SEO-content (claims, feiten, adviezen) en zeker bij alles wat reputatie- of compliance-risico heeft.
Transparantie: wanneer moet je zeggen dat iets AI is?
De AI Act kent transparantieverplichtingen, vooral als mensen direct met AI interacteren (denk aan chatbots/klantenservice). Dan moet het voor de gebruiker duidelijk zijn dat ze met AI te maken hebben.
Daarnaast is er het punt van synthetische of gemanipuleerde content (zoals deepfakes). Daarvoor geldt dat er disclosure moet zijn dat content kunstmatig is gegenereerd of gemanipuleerd.
Belangrijk detail: de EU werkt ook aan praktische guidance rondom “marking en labelling” van AI-gegenereerde content in de context van die transparantieverplichtingen.
AI-geletterdheid: dit is geen nice-to-have
Dit is de sleeper in marketingland: AI-geletterdheid is een verplichting. In Nederland benadrukt de Autoriteit Persoonsgegevens dat organisaties die AI ontwikkelen of gebruiken vanaf 2 februari 2025 moeten zorgen dat medewerkers voldoende kennis en vaardigheden hebben om AI verantwoord te gebruiken.
Dat is geen eenmalig “cursusje”. Het is doorlopend: omdat tooling en risico’s continu schuiven. Voor bureaus betekent dit ook iets richting klanten: je kunt niet geloofwaardig adviseren als je team niet snapt waar de risico’s zitten (data, bias, hallucinaties, auteursrecht, transparantie).
Data & privacy: “gratis” betaal je vaak met data
Een praktische vuistregel uit het gesprek: als je niet betaalt, betaal je vaak met data. Los van de AI Act blijf je onder de AVG verantwoordelijk voor hoe je met persoonsgegevens omgaat.
Voor marketeers is dit de kern: stop geen klantdata, persoonsgegevens of gevoelige bedrijfsinfo in een AI-tool als je niet zeker weet wat ermee gebeurt en welke instellingen/contracten dit afdekken. En zelfs dan: minimaliseer. Werk met geanonimiseerde voorbeelden, of met synthetische testdata als je iets wilt uitproberen.
Eerst compliance, dan experimenteren
Mark’s volgorde is scherp: bouw eerst guardrails, ga dán experimenteren. Dat is precies het verschil tussen “AI gebruiken” en “AI inzetten”.
Concreet betekent dat: je spreekt af welke tools wel/niet mogen, wie eindverantwoordelijk is voor publicatie, hoe je output checkt, hoe je met data omgaat en hoe je transparantie toepast bij klantcontact of synthetic media.
Wat dit doet met het businessmodel van bureaus
AI gaat uren drukken. Dat is onvermijdelijk. Als je businessmodel leunt op “meer uren = meer omzet”, ga je pijn voelen. Als je leunt op waarde, kwaliteit en resultaat, dan krijg je juist ruimte: sneller leveren, meer iteraties, betere output, zonder dat je jezelf in de voet schiet.
De strategische shift is dus: van urenverkoop naar waardepropositie. Niet omdat dat leuk klinkt, maar omdat het de enige logische route is in een markt waar productie steeds goedkoper wordt.
Samenvatting
De AI Act dwingt marketeers en bureaus om volwassen te worden in AI-gebruik. Niet door minder te doen met AI, maar door het slimmer te organiseren: verantwoordelijkheid helder, transparantie waar nodig, dataveilig werken en AI-geletterdheid borgen.
Wil je dit meteen praktisch maken in je team? Pak dan je eigen workflow (SEO-content, ads, creatie, klantenservice) en leg ‘m langs deze vragen: wie is verantwoordelijk, hoe checken we, wat doen we met data en waar moeten we transparant zijn.