“Onze UX Expert Weet Precies Wat Je Doelgroep Wil” (Zonder Het Ooit Te Testen)

“We hebben uitgebreid onderzoek gedaan naar je doelgroep.”
“Onze UX designer heeft 15 jaar ervaring.”
“We weten precies wat werkt voor jouw bezoekers.”
En dan, 3 maanden en €15.000 later, blijkt dat je nieuwe website slechter converteert dan je oude site uit 2015 die je zoon had gemaakt.
“Ah,” zegt de agency, “het ligt waarschijnlijk aan jullie product. Of je doelgroep. Of het seizoen. Het weer”
Nooit hoor je: “Weet je wat, we hadden dit moeten testen.”
Want laten we eerlijk zijn: de meeste webdesign agencies – van de “huis, tuin en keuken” webdesigners tot de grote bureaus met fancy kantoren en peperdure UX-experts – bieden haast nooit split testing aan, tenzij je explicit vraagt. Ze designen iets, gaan ervan uit dat het werkt, en als het niet werkt? Dan is het jouw schuld.
Terwijl A/B split testing tools goedkoop zijn, makkelijk te implementeren, en je binnen 2 weken kunnen vertellen of dat nieuwe design €50.000 waard is of gewoon duur pixel-geschuif.
Maar dat bieden ze niet aan. Want dan zouden ze moeten toegeven dat ze het misschien niet weten.
Het Probleem: Dure Meningen Zonder Data
Je belt een webdesign agency. Of een grote bureau. Of die “expert” die je concurrent aanraadde.
Ze organiseren een intake. 2 uur lang stellen ze vragen over je doelgroep, je product, je doelen. Ze maken notities. Ze knikken wijs. Ze gebruiken woorden als “customer journey” en “conversion funnel” en “user experience optimization”.
Je denkt: “Wow, deze mensen weten waar ze het over hebben.”
Ze gaan aan de slag. Wireframes. Mockups. Presentaties met 40 slides over waarom de button rechts moet staan in plaats van links. Waarom groen converteert beter dan blauw. Waarom die header groot moet zijn. Waarom de CTA above the fold moet.
Ze presenteren. Het ziet er mooi uit. Professioneel. Heel anders dan je oude site.
“Dit gaat conversie met 40% verhogen,” zeggen ze. Zonder vraag teken. Alsof het een feit is.
Je betaalt. €15.000. Of €25.000. Of €50.000 voor een grote site.
Site gaat live.
En dan…live en je conversie daalt samen met de klantfeedback en je enthousiasme
Je belt de agency. “Waarom werkt het niet?”
En nu komt het:
“Hmm, misschien moeten jullie je marketing aanpassen.”
“Het kan zijn dat je doelgroep toch anders is dan we dachten.”
“Geef het wat tijd, mensen moeten wennen aan het nieuwe design.”
“Was je budget niet een beetje krap? Voor het optimale resultaat hadden we meer nodig.”
Zie je het patroon? Het is nooit HUN design. Het is altijd iets anders.
Waarom Agencies Geen Split Testing Aanbieden
Laten we even in de psychologie duiken. Waarom bieden die “experts” geen A/B testing aan?
Reden 1: Het bedreigt hun expertise
Als je UX designer zegt “ik weet precies wat werkt” en vervolgens blijkt uit een A/B test dat zijn design slechter presteert… dan is hij geen expert meer. Dan is hij gewoon iemand met een mening.
En dat is eng. Want hun hele business model is gebouwd op “wij weten het beter dan jij”. Als blijkt dat ze het ook niet weten – dat ze moeten testen zoals iedereen – dan waarom betaal je ze €150/uur?
Reden 2: Het kost tijd (volgens hen)
“A/B testing? Dat betekent dat we 2 designs moeten maken! Dat is dubbel werk!”
Nee. Dat is 1 extra variant. En als je niet zeker weet of je design werkt, dan is dat 1 variant die je €50.000 aan slechte investeringen kan besparen.
Maar agencies verkopen liever 1 design voor €15.000 dan 2 varianten voor €18.000. Want het eerste klinkt als “de oplossing” en het tweede klinkt als “we weten het ook niet zeker”.
Reden 3: Ze weten niet hoe het werkt
Hier is het vuile geheim: veel webdesigners en zelfs UX-ers weten niet hoe A/B testing werkt. Ze kennen het concept, maar de implementatie? De statistiek? Het interpreteren van data?
Te moeilijk. Te technisch. Te veel gedoe.
Dus ze doen alsof het niet nodig is. “Wij hebben ervaring!” Ervaring is geen data. Ervaring is een verzameling vooroordelen die je hebt opgebouwd door selectief je successen te onthouden en je failures te vergeten.
Reden 4: Het is minder sexy om te verkopen
“We gaan een prachtig design maken dat jouw conversie verhoogt!” – Sexy. Zelfverzekerd. Verkocht.
We gaan 2 varianten maken en testen welke beter werkt, geen idee welke wint.” – Eerlijk. Maar niet sexy.
Klanten kopen graag zekerheid. Ook al is die zekerheid fake.
Reden 5: Als het niet werkt, kunnen ze het op jou schuiven
Als er geen test is, is er geen bewijs dat hun design slecht is. Dan kan het aan alles liggen: je product, je prijs, je doelgroep, je marketing, je foto’s, je teksten.
Als er wel een test is en variant B (hun nieuwe design) verliest van variant A (de oude shit), dan is het bewezen: hun design is slechter. En daar komen awkward gesprekken van.
Wij beginnen elk project met: ‘Dit denken we dat werkt, maar we gaan het testen.’ Geen garanties, geen ‘trust me bro’, gewoon data. En als onze eerste versie niet wint? Dan maken we een nieuwe. En nog een. Tot we een winnaar hebben. Dat is hoe je conversie verbetert: niet met ego, maar met tests.
A/B Testing Tools: Goedkoper Dan Je Denkt
“Maar A/B testing is toch duur?”
Nee. Het is spotgoedkoop vergeleken met een website die niet converteert.
Microsoft Clarity: Gratis. Heatmaps, session recordings, en basic A/B testing features. Werkt prima voor MKB.
Wij maken gebruik van Split Hero en/of Clarity
Splithero kost bijvoorbeeld 20 dollar per maand, ongelimiteerd aantal bezoekers, 1 campagne.
De kosten voor dit soort tools zijn goedkoper dan het verschil tussen een goed en slecht design. Als een beter design je conversie van 2% naar 3% brengt, en je hebt 1.000 bezoekers per maand met gemiddelde order van €100… dan is dat €1.000 extra omzet per maand. Je hebt de tool in 1 maand terugverdiend.
Dus waarom bieden agencies het niet standaard aan? Niet omdat het duur is. Omdat ze het niet willen.
Echte Voorbeelden: Waar Split Testing Alles Veranderde
Laten we even kijken naar wat er gebeurt als je WEL test in plaats van aannames maakt.
Case 1: De Button Kleur
UX expert: “Groene buttons converteren beter! Groen betekent ‘go’, het is psychologie!”
A/B test: Rode button wint met 21% meer clicks.
Waarom? Omdat op die specifieke site alles al groen was (hun branding). De rode button viel op. Context matters. Data > mening.
Case 2: De Lange vs Korte Homepage
Designer: “Korte homepage! Mensen scrollen niet! Above the fold is alles!”
A/B test: Lange homepage (3x meer content) converteert 67% beter.
Waarom? Product was complex (B2B software). Mensen wilden info. Kort = onvolledig = geen vertrouwen.
Case 3: De “Moderne” Website
Agency: “Minimalistisch! Veel witruimte! Moderne sans-serif fonts! Subtiele kleuren!”
A/B test: “Oude” website met meer contrast en duidelijke CTA’s wint met 43%.
Waarom? Doelgroep was 50+. Ze wilden duidelijkheid, niet subtiliteit. Modern ≠ effectief.
Case 4: De Video Header
Bureau: “Hero video! Dat is state of the art! Kost €5.000 om te produceren maar het is het waard!”
A/B test: Statische header met duidelijke tekst wint met 31%.
Waarom? Video laadde traag, mensen klikten weg. Plus, de video vertelde het verhaal niet snel genoeg.
Zie je het patroon? Experts hadden ongelijk. Data had gelijk.
En het grappige? Bij geen van deze cases had de agency voorgesteld om te testen. Ze waren zo zeker van hun aanpak. Tot de cijfers bewezen dat ze fout zaten.
We maakten 2 varianten voor een fysiotherapie praktijk: één met grote team foto’s (want ‘mensen willen een gezicht zien bij wie ze komen’), één met behandeling foto’s (voor/na). Team foto variant verloor hard. Mensen wilden resultaten zien, geen foto’s van mensen in witte jassen. Had je dat kunnen raden? Misschien. Moesten we het testen om zeker te zijn? Absoluut.
Hoe Het ZOU Moeten Werken
Stel je voor dat agencies eerlijk waren over hun beperkingen. Hoe zou het proces er dan uitzien?
Stap 1: Onderzoek + Hypotheses
Agency: “Op basis van ons onderzoek denken we dat X werkt. Maar we willen het testen tegen Y, want het zou ook kunnen dat Y beter werkt omdat [reden].”
Niet: “We weten dat X werkt.”
Wel: “We denken dat X werkt, laten we het verifiëren.”
Stap 2: Design 2 Varianten
Maak niet 1 perfect design. Maak 2 goede designs die fundamenteel verschillen in aanpak.
Bijvoorbeeld:
- Variant A: Product-focused (features, specs, details)
- Variant B: Benefit-focused (wat het voor je doet, resultaten)
Of:
- Variant A: Veel tekst (voor mensen die info willen)
- Variant B: Veel visueel (voor mensen die snel willen scannen)
Niet 2 varianten van “button links of rechts”. Maar 2 verschillende filosofieën.
Stap 3: Implementeer Test
Set up A/B test. 50% van bezoekers ziet variant A, 50% ziet variant B. Tool tracked conversies. Simpel.
Wacht tot je voldoende data hebt verzameld. Meestal 2-4 weken, afhankelijk van traffic.
Stap 4: Analyseer + Iteratie
Welke variant won? Waarom? Wat leren we ervan?
Neem de winnaar. Maak nu een nieuwe variant die nóg beter zou kunnen zijn. Test opnieuw.
Dit is geen one-time ding. Dit is on-going.
Stap 5: Documenteer Learnings
“We leerden dat voor deze doelgroep X beter werkt dan Y omdat [data].”
Dat is waardevol. Dat is expertise. Expertise gebaseerd op data, niet op aannames.
Zie je hoe simpel dit is? En toch doet bijna niemand het.
Red Flags: Agencies Die Niet Willen Testen
Als je met een webdesign bureau praat en je hoort dit:
🚩 “We hebben zoveel ervaring, we weten wat werkt”
Ervaring is nuttig. Maar niet altijd juist. De beste designers testen nog steeds.
🚩 “A/B testing kost te veel tijd”
Het kost 2-4 weken om data te verzamelen. Als je website jaren meegaat, is 1 maand testen geen probleem.
🚩 “Je hebt niet genoeg traffic voor A/B testing”
Onder de 1.000 bezoekers per maand? Fair, testing duurt lang. Maar boven 1.000? Geen excuus.
🚩 “We doen altijd user testing met 5 mensen, dat is genoeg”
5 mensen vertellen je wat ze zeggen. 5.000 bezoekers vertellen je wat ze doen. Gedrag > mening.
🚩 “Als het niet werkt kunnen we het later aanpassen”
Waarom niet eerst testen voordat je live gaat met iets waarvan je niet weet of het werkt?
🚩 “A/B testing is voor grote bedrijven, niet voor MKB”
BULLSHIT. <– ja in CAPSlock en Bold :)
🚩 “We baseren ons op best practices”
Best practices zijn “wat gemiddeld genomen vaak werkt”. Jouw situatie is niet gemiddeld. Test wat werkt voor jou.
Als je 3+ van deze red flags hoort: zoek een andere agency.
De Praktische Gids: Hoe Je Zelf Split Test (Ook Als Je Agency Het Niet Doet)
Oké, je agency wil niet testen. Of je hebt geen budget voor een agency. Kan je het zelf?
Ja. Hier is hoe:
Stap 1: Kies Je Tool
Start met Microsoft Clarity (gratis) of bijvoorbeeld SplitHero. Genoeg om te beginnen.
Stap 2: Bepaal Wat Je Test
Niet alles tegelijk. Begin met:
- Homepage layout
- CTA button tekst/kleur/positie
- Product pagina structuur
- Checkout flow
Kies 1 ding. Test het. Win of verlies. Volgende.
Stap 3: Maak Je Hypothese
“Ik denk dat [verandering] zal leiden tot [resultaat] omdat [reden].”
Bijvoorbeeld: “Ik denk dat een groene CTA button meer clicks krijgt dan een blauwe omdat groen beter past bij onze branding.”
Stap 4: Maak Variant B
Je hebt al variant A (je huidige site). Maak nu variant B met je verandering.
Stap 5: Split Traffic 50/50
Tool doet dit automatisch. 50% van bezoekers ziet A, 50% ziet B. Willekeurig.
Stap 6: Wacht Op Data
Je hebt minstens 100 conversies per variant nodig voor betrouwbare data. Bij 2% conversie rate en 1.000 bezoekers per maand = 2 maanden.
Niet eerder stoppen. Geen “oh B wint na 1 week dus we gaan live”. Dat is niet voldoende voor een realistische test.
Stap 7: Analyseer
Welke variant won? Met hoeveel?
Als B wint: implementeer permanent. Als A wint: gooi B weg, maak een nieuwe variant, test opnieuw.
Stap 8: Documenteer + Herhaal
Schrijf op wat je leerde. Niet alleen “B won”, maar waarom denk je dat B won? Wat zegt dat over je doelgroep?
Dan test je het volgende element. En het volgende. En het volgende.
Dit is geen project. Dit is een proces. Voor altijd.
Wij helpen klanten met hun eerste A/B tests. Niet omdat we alles weten, maar omdat we het proces kennen. We helpen met hypothese, variant maken, data interpreteren. En ja, soms verliezen onze designs. En dat is oké. Want dan leren we. En de volgende variant is beter. Dat is hoe je groeit: met data, niet met ego.
De “Maar Wat Als…” Vragen
“Wat als mijn traffic te laag is?”
Onder 500 bezoekers per maand: A/B testing duurt te lang. Focus dan op qualitative feedback (surveys, user interviews). Boven 1.000: je kan testen, het duurt alleen langer.
“Wat als beide varianten slecht zijn?”
Dan leer je wat NIET werkt. Dat is ook waardevol. Maak 2 nieuwe varianten, test opnieuw. Het gaat niet om perfectie op poging 1, het gaat om continuous improvement.
“Moet ik alles testen?”
Nee. Test dingen die impact hebben op conversie: homepage, product pages, checkout, CTAs. Niet: footer links, cookie banner tekst, font van je disclaimer.
“Wat als de test geen winnaar heeft?”
Als na 4-6 weken geen variant significant beter is, dan maakt die verandering niet uit. Kies de makkelijkste om te onderhouden en ga verder naar een andere test.
“Is mijn resultaat niet misleidend door seizoenen/campagnes?”
Ja, dat kan. Daarom run je A/B tests parallel (50/50 tegelijk), niet eerst A dan B. Dan hebben beide varianten dezelfde externe factoren.
“Kan ik meerdere dingen tegelijk testen?”
Ja, maar niet op dezelfde pagina. Je kan homepage testen EN checkout testen tegelijkertijd. Maar niet “homepage met groene button” vs “homepage met rode button én andere tekst”. Dan weet je niet wat de verandering veroorzaakte.
De Kosten-Baten Analyse
Laten we even rekenen. Eerlijk.
Optie A: Design zonder testen
- Design kosten: €15.000
- Kans dat het slechter is dan huidig: 40%
- Kans dat het beter is dan huidig: 40%
- Kans dat het hetzelfde is: 20%
Verwachte waarde: €15.000 met 40% kans op verlies, 40% kans op winst. Basically een coin flip met je geld.
Optie B: Design met A/B testing
- Design kosten 2 varianten: €18.000 (+€3.000)
- Testing tool: €20/maand x 2 maanden = €40
- Totaal: €18.040
Maar: je weet welke variant beter is. Je implementeert de winnaar. Kans op verlies: bijna 0% (want je kiest de beste).
€18.040 met zekerheid vs €15.000 met 40% kans op falen.
No brainer, toch?
Maar toch: agencies bieden optie A aan. Omdat het makkelijker is. En omdat klanten niet doorvragen.
De Onprettige Waarheid Over “Expertise”
Laten we even heel eerlijk zijn. Hier is wat veel UX designers en webdesign agencies niet willen toegeven:
Ze weten het niet.
Ze weten niet of die groene button beter converteert dan de blauwe.
Ze weten niet of die lange homepage beter is dan de korte.
Ze weten niet of video’s helpen of hinderen.
Ze hebben meningen. Ervaring. Best practices. Maar geen kristallen bol.
En dat is oké. Niemand kan in de hoofden van je bezoekers kijken. Het probleem is niet dat ze het niet weten. Het probleem is dat ze doen alsof ze het wel weten.
Echte experts zeggen: “Op basis van ervaring denk ik dat X werkt, maar we moeten het testen om zeker te zijn.”
Nepexperts zeggen: “Vertrouw me, X werkt. Ik heb 15 jaar ervaring.”
15 jaar ervaring betekent dat je 15 jaar lang aannames hebt gemaakt zonder ze te testen. Dat is geen expertise. Dat is hardnekkigheid in je vooroordelen.
De beste designers die ik ken? Die testen alles. Niet omdat ze onzeker zijn. Maar omdat ze weten dat elke doelgroep, elk product, elke context anders is.
Bij ons: we testen. Niet omdat we het niet weten, maar omdat we eerlijk zijn dat niemand het zeker weet. En eerlijkheid met data is beter dan arrogantie zonder bewijs.


