Ga naar inhoud
ACM chatbotchatbotrichtlijnAI chatbotMKBcompliance

ACM en AP chatbotrichtlijn: wat MKB nu moet weten (2026)

ACM en AP komen met nieuwe chatbotrichtlijn voor Nederland in 2026, input tot 17 mei. Ontdek wat het betekent voor je MKB-chatbot en welke stappen je nu zet.

D
DenkChat
·24 april 2026
ACM en AP chatbotrichtlijn: wat MKB nu moet weten (2026)

De ACM en AP (Autoriteit Consument & Markt en Autoriteit Persoonsgegevens) komen met een nieuwe chatbotrichtlijn voor Nederland. Bedrijven, experts en consumenten kunnen tot 17 mei 2026 input leveren. De aanleiding is pijnlijk duidelijk: uit de Nationale Voice Monitor 2026 blijkt dat slechts 12% van de Nederlandse klanten vindt dat een AI-chatbot hun vraag écht oplost.

Daar komt bij dat de EU AI Act vanaf 2 augustus 2026 verplicht stelt dat klanten direct weten of ze met een mens of met AI praten. Twee regelgevende sporen dus, met één gedeeld doel: chatbots moeten transparanter, eerlijker en beter werken.

Voor MKB-ondernemers betekent dit geen reden tot paniek, maar wél reden om nu te handelen. In dit artikel leggen we uit wat de ACM/AP chatbotrichtlijn gaat inhouden, hoe het samenhangt met de EU AI Act, en welke concrete stappen je vandaag al kunt zetten om compliant én klantvriendelijk te zijn.

Wat is de ACM en AP chatbotrichtlijn?

De ACM (Autoriteit Consument & Markt) en AP (Autoriteit Persoonsgegevens) werken aan een gezamenlijke leidraad voor het verantwoord inzetten van chatbots. Deze leidraad gaat gelden voor zowel publieke als private dienstverlening. Denk aan webshops, verzekeraars, gemeenten, energieleveranciers, zzp'ers en uiteraard het MKB.

De aanleiding is een reeks signalen die beide toezichthouders hebben ontvangen. De grootste klachten:

  • Chatbots die zich voordoen als mens
  • Onvoldoende beantwoording van persoonlijke vragen
  • Geen duidelijke overstap naar een menselijke medewerker
  • Onduidelijkheid over wat er met je gegevens gebeurt
  • Frustrerende eindeloze loops zonder oplossing

De leidraad wordt in samenwerking met consumenten én organisaties opgesteld. De consultatie loopt tot 17 mei 2026. Daarna wordt een concrete richtlijn opgesteld die aansluit bij onder andere de EU AI Act en de AVG.

Waarom komen ze nu met deze richtlijn?

Omdat het nodig is. Uit de Nationale Voice Monitor 2026 blijkt:

  • Slechts 12% van de Nederlandse klanten vindt dat een AI-chatbot hun vraag goed oplost
  • 50% geeft aan gefrustreerd te raken door niet-werkende chatbots (tweede grootste ergernis, na wachttijden)
  • Meer dan de helft van de Nederlanders staat open voor AI in klantenservice, maar alleen als het werkt

De wildgroei aan slecht werkende chatbots schaadt dus niet alleen klanten, maar ook het vertrouwen in AI als geheel. Goede toezichthouders die ingrijpen voordat het vertrouwen verder keldert is op zich positief, maar je wilt er wel op voorbereid zijn.

Nu 12% krijgt écht hulp van hun chatbot 17 mei 2026 ACM + AP consultatie chatbotrichtlijn Bron: Nationale Voice Monitor 2026 + ACM/AP oproep

Samenhang met de EU AI Act

Vanaf 2 augustus 2026 gelden nieuwe verplichtingen onder de EU AI Act voor iedereen die een AI-chatbot inzet. De kernverplichtingen:

  1. Transparantie: Duidelijk maken dat de gebruiker met AI praat, niet met een mens
  2. Documentatie: Weten welk model je gebruikt, waar het op is getraind
  3. Risicomanagement: Inschatten wat er mis kan gaan en preventief handelen
  4. Klachtenroute: Een duidelijke manier voor klanten om bezwaar te maken

De ACM/AP-richtlijn gaat dit Nederlands invullen en aanvullen met concrete gedragsregels. Verwacht dus eisen rondom:

  • Hoe herkenbaar moet een chatbot zich identificeren?
  • Hoe snel moet een klant naar een mens kunnen doorschakelen?
  • Welke vragen mag een chatbot niet afhandelen?
  • Hoe lang mogen gespreksdata worden bewaard?

We hebben eerder al geschreven over de praktische impact in EU AI Act en je chatbot: wat MKB moet weten. Dat artikel geeft een handig stappenplan voor augustus. De ACM/AP-richtlijn komt daar dus bovenop.

Wat betekent dit voor jouw MKB?

Eerst het goede nieuws: kleine bedrijven met een basis-chatbot hebben zelden iets te vrezen. De meeste verplichtingen zijn laagdrempelig en goed uitvoerbaar. De signalen die ACM en AP aanpakken komen grotendeels uit de hoek van grote bedrijven die klanten in cirkels laten draaien.

Maar er zijn wel vier concrete dingen waar je nu al op kunt sturen.

1. Wees transparant over AI

Plaats bij de eerste interactie een duidelijk bericht: "Je praat nu met een AI-assistent. Wil je een mens spreken? Klik hier." Dit voldoet al aan de kern van de EU AI Act én komt terug in de ACM/AP-signalen.

Klanten verwachten dit. Uit onderzoek blijkt dat transparantie over AI juist zorgt voor hoger vertrouwen en betere conversie. Een chatbot die zich voordoet als mens wekt argwaan zodra het fout gaat, en dat gaat het altijd een keer.

2. Zorg voor een menselijke escalatie

Een chatbot moet een klant nooit opsluiten. Bouw altijd een escalatieknop in, bijvoorbeeld:

  • Na drie onbeantwoorde vragen automatisch doorschakelen
  • Bij gevoelige onderwerpen (klachten, kostenvragen, annuleringen) direct doorverwijzen
  • Altijd een zichtbare "spreek met medewerker" of "laat je terugbellen" optie

Dit lost meteen een groot deel van de 12%-tevredenheidsprobleem op. Klanten accepteren een chatbot die niet alles weet, zolang ze snel ergens terecht kunnen waar wel iemand is.

3. Train je chatbot op échte content, niet op gebakken lucht

Veel chatbots hallucinieren omdat ze een generieke AI zijn die "raadt" bij vragen over jouw bedrijf. Een goede chatbot is getraind op jouw eigen content: website, FAQ's, documenten, productpagina's.

Hiervoor gebruik je een techniek genaamd RAG (Retrieval-Augmented Generation). De chatbot zoekt eerst in jouw kennisbank en formuleert dán pas een antwoord. Geen verzonnen verhalen, alleen feiten uit jouw eigen bronnen. Lees meer over deze aanpak in AI chatbot trainen op eigen content: complete gids 2026.

Dit is ook direct een antwoord op de hallucinatie-ergernis. We hebben er een uitgebreid stuk over geschreven: AI chatbot hallucinaties voorkomen.

4. Houd het privacy-luik dicht

De AP kijkt vooral naar dataverwerking. Concrete actiepunten:

  • Gebruik een chatbot-leverancier met servers in de EU
  • Bewaar gesprekken niet langer dan nodig (meestal max 12 maanden)
  • Geef klanten de optie om hun gesprek te laten wissen
  • Vraag nooit meer data dan je echt nodig hebt (vermijd onnodige formulieren)

DenkChat hanteert deze principes by default. Alle data wordt verwerkt binnen de EU, je kunt retentietermijnen zelf instellen, en klanten krijgen standaard een AVG-vriendelijke chatomgeving.

Probeer DenkChat gratis →

De échte oorzaak: slechte chatbots zijn vaak slecht gebouwd

Hier komt de ongemakkelijke waarheid. Dat maar 12% van de klanten tevreden is, ligt zelden aan AI als technologie. Het ligt aan hoe bedrijven chatbots implementeren.

Typische fouten die de ACM/AP wil aanpakken:

  • Te breed inzetten: een chatbot voor letterlijk alles, zonder scope
  • Geen echte kennisbank: de bot raadt, want hij weet niets
  • Geen escalatie: mensen vastzetten in een AI-loop
  • Bot doet zich voor als mens: misleidend en straks verboden
  • Nooit getest: gelanceerd en vergeten

Je hoeft niet aan alle klachten tegemoet te komen. Je moet gewoon een chatbot hebben die daadwerkelijk werkt voor je klanten. We hebben hier eerder over geschreven in Klanten haten chatbots. Zo maak je er eentje die wél werkt.

Checklist: compliant én klantvriendelijk Chatbot toont duidelijk dat hij AI is Escalatie naar mens altijd zichtbaar Getraind op eigen content (geen verzinsels) Data opslag in de EU, AVG-compliant Retentietermijn ingesteld (max 12 mnd) Klant kan gesprek laten wissen Scope beperkt tot eigen expertisegebied Gesprekken periodiek gecontroleerd

Hoe bereid je je in 5 stappen voor

Je hoeft niet te wachten op de definitieve richtlijn. De kern is helder genoeg om nu al actie te ondernemen. Vijf praktische stappen:

Stap 1: audit je huidige chatbot

Loop je eigen chatbot een keer door als klant. Stel vijf gemiddelde klantvragen, drie moeilijke, en twee onmogelijke. Hoeveel los je echt op? Waar raakt je klant vast? Kan hij snel naar een mens? Dat is je nulmeting.

Stap 2: check je AI-disclosure

Staat er ergens in het begin van het gesprek expliciet dat het een AI is? Zo niet: voeg dat toe. Het hoeft geen juridische tekst te zijn. "Hoi, ik ben de AI-assistent van [bedrijf]. Vraag me gerust wat!" is al voldoende.

Stap 3: test je escalatie

Typ "ik wil een mens spreken" of "dit is te ingewikkeld". Wat gebeurt er? Als je chatbot dan in cirkels blijft draaien, heb je een probleem. Het moet zonder weerstand kunnen doorschakelen.

Stap 4: evalueer je content-basis

Is je chatbot getraind op je eigen website, FAQ's en documenten? Of werkt hij met generieke kennis? Bij het laatste ga je vrijwel zeker de mist in. Goede chatbots halen hun antwoorden uit jouw actuele content.

Stap 5: leg je processen vast

Noteer ergens: welk model gebruik je? Waar staat je data? Hoe lang bewaar je gesprekken? Wie kan bij de logs? Deze informatie heb je nodig als de AP ooit langs komt. Het kost een half uur en bespaart je straks paniek.

DenkChat: compliant én effectief

DenkChat is ontwikkeld met de Nederlandse context in gedachten. AVG, EU AI Act en straks de ACM/AP-richtlijn. Je hoeft niet te gokken of je compliant bent, wij regelen de basis voor je:

  • Alle data blijft in de EU (AVG-proof)
  • Standaard AI-disclosure in de chatwidget
  • Ingebouwde escalatie naar email, telefoon of live medewerker
  • Getraind op jouw eigen content via RAG
  • Retentietermijnen configureerbaar
  • Gesprekslogs exporteerbaar of wisbaar per klant
  • Nederlandse support, geen Amerikaanse TOS

Je kiest je plan op basis van wat je écht nodig hebt:

PlanPrijsBerichten/maandVoor wie
FreeGratis50Uitproberen, kleine websites
Hobby€29/maand500ZZP'ers, kleine MKB
Standard€79/maand4.000Groeiend MKB met eigen branding
Pro€249/maand15.000Grotere bedrijven met custom domein
EnterpriseOp maatOnbeperktWhite-label, SSO, SLA

Geen creditcard nodig om te starten. Je kunt op elk moment upgraden of downgraden.

Wat als je niets doet?

De ACM en AP hebben beide boetebevoegdheid. De AP kan boetes opleggen tot 4% van de wereldwijde jaaromzet voor AVG-overtredingen. De AI Act gaat tot 7% van de omzet. Maar eerlijk gezegd: voor een MKB is dat niet het realistische risico.

Het realistische risico is klantverlies. Als 88% van je klanten niet geholpen wordt, verliezen ze vertrouwen. Ze komen niet terug. Ze laten geen review achter (of erger: een slechte). En je team krijgt alsnog die vragen in de inbox, alleen nu met frustratie erbij.

Goede compliance is niet een kosten-post, het is gewoon goed ondernemen. Een chatbot die transparant is, snel naar een mens schakelt en met echte content werkt, presteert gegarandeerd beter dan een zwart-doosje die zich voordoet als Jan van de klantenservice.

De korte samenvatting

  • ACM en AP werken aan een chatbotrichtlijn, input mogelijk tot 17 mei 2026
  • EU AI Act gaat vanaf 2 augustus 2026 transparantie verplichten
  • Slechts 12% van Nederlandse klanten is nu tevreden over AI-chatbots
  • De vier hoekstenen: transparantie, escalatie, eigen content-training, privacy
  • MKB hoeft niet te wachten, je kunt vandaag al compliant én effectief zijn
  • DenkChat regelt de basis voor je, plannen vanaf €29/maand

Start vandaag nog met je eigen AI-chatbot →

Gratis starten, geen creditcard nodig. Binnen 30 minuten heb je een AI-chatbot op je website die getraind is op je eigen content, duidelijk communiceert dat hij AI is, en klanten doorschakelt wanneer het nodig is. Precies zoals de ACM, AP en je eigen klanten het willen.

Probeer het zelf

Klaar om je eigen AI-chatbot te bouwen?

Start gratis met DenkChat en ontdek hoe een AI-chatbot jouw klantenservice transformeert.

Start gratis

Bouw je eigen AI-chatbot

Getraind op jouw data, klaar in minuten. Probeer het gratis.

Start gratis