Academy

Crawler traps hinderen een crawler bij het verkennen van je website, en zijn schadelijk voor het crawl- en indexeringsproces, en dus ook jouw rankings.

Wat zijn crawler traps?

In SEO zijn “crawler traps” een structureel probleem op een website waardoor crawlers een vrijwel oneindig aantal irrelevante URL’s vinden. In theorie kunnen crawlers ergens op een website vast komen te zitten en daardoor het crawlen van deze irrelevante URL’s nooit afmaken. Daarom noemen we het een “crawl trap”, een val voor crawlers.

Crawler traps worden soms ook “spider traps” genoemd.

Weergave van Crawler traps

Waarom zou ik me druk maken over crawler traps?

Crawler traps veroorzaken problemen in crawl budget en met duplicate content.

Crawler traps veroorzaken problemen in crawl budget

Crawl budget is het aantal pagina’s dat een zoekmachine bereid is te bezoeken tijdens het crawlen van jouw website. Oftewel, de aandacht die zoekmachines aan jouw website geven. Met dat in gedachten, denk dan eens aan crawler traps en hoe deze leiden naar voor SEO irrelevante pagina’s. Dat is verspild crawl budget. Wanneer crawlers druk bezig zijn met het crawlen van deze irrelevante pagina’s, hebben ze geen aandacht voor jouw belangrijke pagina’s.

Nu kun je je afvragen: “Maar zijn zoekmachines dan niet slim genoeg om crawler traps te ontdekken?”

Zoekmachines kunnen crawler traps wel ontdekken, maar er is absoluut geen garantie dat ze dat ook zullen doen. En bovendien, om te beseffen dat ze in zo’n crawler trap vastzitten, zullen ze eerst in die val moeten lopen, en dan is het al te laat. Het resultaat? Verspild crawl budget.

Als zoekmachines crawler traps kunnen detecteren, zullen ze deze na verloop van tijd minder crawlen en wordt het steeds minder een probleem. Als je echter geen risico wil nemen, raden we je aan om de crawler traps direct aan te pakken.

Dan Taylor
Dan Taylor

Wanneer we praten over crawler traps, hebben we het vooral over crawl recources en hoe problematisch en schadelijk ze kunnen zijn voor crawl recources; maar ze kunnen ook fungeren als sink nodes in de interne distributie van PageRank. Wanneer we naar een website kijken als een boom-diagram, of knooppunten-grafiek, dan is een sink node een knooppunt (of pagina) met weinig tot geen uitgaande links, en deze kan PageRank lekken. We bouwen natuurlijk geen websites meer volgens het PageRank-principe zoals 10 jaar geleden, maar het is nog steeds belangrijk om het probleem aan te pakken en ervoor te zorgen dat we geen kansen missen om PageRank te behouden en intern betere links te leggen naar onze waardevolste pagina’s.

Crawler traps veroorzaken duplicate content problemen

Het is het vermelden waard dat crawler traps niet alleen een bedreiging vormen voor je crawl budget, maar ook een veel voorkomende reden zijn waarom websites kampen met duplicate content problemen. Waarom? Omdat sommige crawler traps ervoor zorgen dat veel pagina’s van lage kwaliteit toegankelijk en indexeerbaar zijn voor zoekmachines.

David Iwanow
David Iwanow

Crawler traps bestaan echt en zoekmachines crawlers haten ze. Ze komen in verschillende vormen voor, ik heb bijvoorbeeld gezien: redirect loops als gevolg van een regex typefout in .htaccess, oneindige paginering, 1.000.000+ pagina’s op een zoekopdracht voor zoekwoord “a”, en een vrijwel oneindig aantal attributen/filters toegevoegd in de URL vanwege verkeerde faceted navigatiestructuur. Monitor je site op crawler traps en herstel deze want ze kunnen je SEO schaden!

Fili Wiese
Fili Wiese

Een website van een geweldig merk dat voortdurend zijn SEO optimaliseert maakt geen schijn van kans om te concurreren in Google wanneer het crawl budget niet goed wordt beheerd. Dat wil zeggen dat ongewenste, overbodige, verouderde landingspagina’s vaker worden gecrawld dan geoptimaliseerde, door conversie gedreven landingspagina’s. Daarom zijn twee zaken van essentieel belang: 1) voortdurend opslaan EN bewaren van onbewerkte webserver logs en 2) minstens 1x per jaar een technische SEO audit laten doen inclusief analyse van serverlogs door een externe partij. Met voldoende relevante data en een objectieve partner die niet er niet voor schuwt om tekortkomingen van sites bloot te leggen, kunnen crawler traps worden voorkomen en SEO inspanningen over het algemeen aanzienlijk worden verbeterd.

Hoe herken je crawler traps?

Voor zoekmachines is het soms lastig om crawler traps te herkennen, terwijl het voor de persoon die de website door en door kent juist makkelijk is. Je hoeft alleen te weten welke URL’s wel gecrawld moeten worden en daarna te analyseren waarom URL’s die niet gecrawld hadden hoeven worden, dus wel zijn gecrawld.

Wees alert op de volgende URL-patronen:

Checkout- en account gerelateerd

  • admin
  • cart
  • checkout
  • favorite
  • password
  • register
  • sendfriend
  • wishlist

Script gerelateerd

  • cgi-bin
  • includes
  • var

Ordering en filtering gerelateerd

  • filter
  • limit
  • order
  • sort

Sessie gerelateerd

  • sessionid
  • session_id
  • SID
  • PHPSESSID

Overig

  • ajax
  • cat
  • catalog
  • dir
  • mode
  • profile
  • search
  • id
  • pageid
  • page_id
  • docid
  • doc_id

Er zijn vier manieren om hier mee om te gaan:

  1. Doe zelf een crawl
  2. Geavanceerde zoekoperators in Google
  3. Check URL parameters in Google Search Console
  4. Analyseer log bestanden

Doe zelf een crawl

Crawl je website met ContentKing en ga in je dataset op zoek naar bovengenoemde URL-patronen, en scroll ook door je hele lijst van URL’s. Sorteren op basis van relevantie (zodat de minst belangrijke URL’s bovenaan staan) is ook een prima manier om snel URL’s te vinden die niet hoeven te worden gecrawld.

Opvallende dingen die je tegen zult komen:

  • URL’s met query parameters (die ? en/of & bevatten)
    Voorbeelden:
    http://www.example.com/shoes?sex=men&color=black&size=44&sale=no en http://www.example.com/calendar/events?&page=1&mini=2015-09&mode=week&date=2021-12-04
  • URL’s met herhalende patronen
    Voorbeeld:
    http://www.example.com/shoes/men/cat/cat/cat/cat/cat/cat/cat/cat/cat/
  • Pagina’s met dubbele titels, meta descriptions en headings
    Zoeken naar pagina’s met dubbele titels, meta descriptions en headings, is een prima manier om potentiële crawl traps te vinden.
Sam McRoberts
Sam McRoberts

Als je op jacht gaat naar crawler traps vergeet dan niet met verschillende user agents te checken. Ik heb sites gezien waar bepaalde URL’s geredirect zijn voor Googlebot, maar niet voor bezoekers; of waar bots een canonical tag zien, maar de browser iets heel anders rendert. In sommige gevallen zelfs ziet een bot een canonical tag die naar een pagina verwijst, maar zodra de bot op die pagina komt, wordt ie weer terugverwezen naar de originele pagina, en komt zo in een canonical/redirect lus die alleen bots kunnen zien. Als je je site niet checkt met verschillende user agents, zie je mogelijk niet het totaalplaatje.

Visualisaties van een website, bijvoorbeeld met een tool als Gephi, kunnen helpen bij het identificeren van deze traps. Over het algemeen zien ze eruit als grote clusters of als een lange string in een netwerk diagram.

Geavanceerde zoekoperators in Google

Gebruik geavanceerde zoekoperators in Google om handmatig de bovengenoemde URL-patronen te vinden.

Gebruik je de site: operator, dan vertel je de zoekmachine te zoeken binnen een specifiek domein, terwijl je met inurl: aangeeft dat je op zoek bent naar pagina’s met een bepaald URL-patroon.

Voorbeelden van zoekopdrachten:

  • site:example.com inurl:filter
  • site:example.com inurl:wishlist
  • site:example.com inurl:favorite
  • site:example.com inurl:cart
  • site:example.com inurl:search
  • site:example.com inurl:sessionid

Let op: je kunt dit ook in één query combineren. In dit voorbeeld hebben we alle 6 bovenstaande URL-patronen gecombineerd voor een zoekopdracht voor amazon.com.

Check URL parameters in Google Search Console

Als je in Google Search Console naar Crawl > URL Parameters gaat, dan vind je daar alle URL parameters die Google heeft gevonden tijdens het crawlen van je site.

Analyseer je server logs

Een andere nuttige bron voor het vinden van deze URL-patronen: door de logbestanden van je webserver gaan. Deze bestanden zijn een verzameling van alle requests die gedaan zijn aan je server, van zowel bezoekers, als van zoekmachines / andere bots. Zoek naar dezelfde URL patronen als we hierboven hebben vermeld.

Vooral e-commerce websites hebben last van crawler traps. Problemen met paginering, facetten, mismanagement van uitlopende producten zijn een aantal van de vele zaken die een crawler in een oneindige lus kunnen brengen. Logbestanden kunnen veel onthullen, maar dat geldt ook voor regelmatig crawlen en controleren. Worden je nieuwe producten niet snel gecrawld en geïndexeerd, dan kan dit een teken zijn dat je site last heeft van crawler traps.

Veelvoorkomende crawler traps en hoe ze te voorkomen

Veelvoorkomende crawler traps die we vaak in het wild aantreffen:

  • URL’s met query parameters: deze leiden vaak tot oneindige unieke URL’s.
  • Oneindige redirect loops: URL’s die maar blijven redirecten en nooit stoppen.
  • Links naar interne zoekopdrachten: links naar pagina’s met interne zoekresultaten om content weer te geven.
  • Dynamisch gegenereerde content: waar de URL wordt gebruikt om dynamisch content in te voegen.
  • Oneindige kalenderpagina’s: waar een kalender aanwezig is met links naar vorige maanden en komende maanden.
  • Foute links: links die verwijzen naar foutieve URL’s, waardoor nog meer foutieve URL’s worden gegenereerd.

Hieronder beschrijven we elke crawler trap, en hoe deze te voorkomen.

URLs met query parameters

In de meeste gevallen zouden URL’s met parameters niet toegankelijk moeten zijn voor zoekmachines, omdat ze vrijwel oneindige URL’s kunnen genereren. Productfilters zijn daar een goed voorbeeld van. Wanneer er vier filteropties voor acht filtercriteria zijn, dan geeft dat 4.096 (8^4) mogelijke opties!

Waarom worden parameters opgenomen in URL’s?

Bijvoorbeeld om informatie op te slaan, zoals criteria voor productfiltering, sessie ID’s, of referral informatie.

Voorbeeld URL met productfiltering criteria:
http://www.example.com/shoes?sex=men&color=black&size=44&sale=no

Voorbeeld URL met session ID:
http://www.example.com?session=03D2CDBEA6B3C4NGB831

Voorbeeld URL met referral informatie:
http://www.example.com?source=main-nav

Advies:
Vermijd het gebruik van query parameters in URL’s zoveel mogelijk. Mocht je ze nou echt moeten gebruiken, of er in het algemeen mee werken, zorg er dan voor dat ze niet toegankelijk zijn voor zoekmachines, door ze uit te sluiten met behulp van het robots.txt bestand of met de URL parameter instellingen in Google Search Console en Bing Webmaster Tools.

De uitzondering hier is als je query parameters hebt in URL’s met veel links. Om zoekmachines in staat te stellen signalen via canonieke URL’s te consolideren naar de canonieke versie van deze URL’s, moeten ze kunnen worden gecrawld. In dat geval moet je deze URL’s niet disallowen met behulp van het robots.txt bestand.

Hoe herstel en voorkom je deze crawler trap?

Als zoekmachines al pagina’s op je site hebben geïndexeerd met parameter URL’s, volg dan de stappen hieronder in de juiste volgorde:

  1. Communiceer met zoekmachines dat je wil dat deze pagina’s niet worden geïndexeerd door de robots noindex directive te implementeren.
  2. Geef zoekmachines de tijd om deze pagina’s opnieuw te crawlen en je request op te pikken. Heb je niet het geduld om hierop te wachten, verzoek ze dan deze URL’s te verbergen met behulp van Google Search Console en Bing Webmaster Tools.
  3. Gebruik het robots.txt-bestand om zoekmachines te instrueren deze URL’s niet te bezoeken. Als dit om een of andere reden geen optie is, gebruik dan de URL parameter instellingen in Google Search Console en Bing Webmaster Tools om Google en Bing te instrueren deze pagina’s niet te crawlen.
  4. Bovendien, wanneer deze URL’s via links worden geïntroduceerd, denk er dan aan ook het rel="nofollow" link attribuut aan deze links toe te voegen. Dit zal ertoe leiden dat zoekmachines die links niet volgen.

Hou er rekening mee dat, als je meteen naar stap 3 springt, de zoekmachines nooit de robots noindex directive kunnen oppikken (omdat je hen opdraagt weg te blijven) en de URL’s veel langer in hun index zullen bewaren.

Als zoekmachines echter nog geen pagina’s met parameter URL’s hebben geïndexeerd, volg dan alleen stap 3 en 4 uit de hierboven genoemde stappen.

Dawn Anderson
Dawn Anderson

Crawler traps kunnen een site ernstig beschadigen, maar het hangt wel af van het type trap waarin de crawler zich bevindt. Terwijl oneindige ruimtes, zoals kalenders die geen einde hebben, en dynamisch gegenereerde parameters zoals die op e-commerce sites, zeer problematische soorten crawler-paden kunnen zijn, is de ergste soort crawler trap die ik ooit heb gezien (en ervaren) degene die ‘logische (maar onjuiste) parameters’ in zich opneemt.

Dit kan in de loop van de tijd een site echt platleggen. Zo serieus is het.

Nick Eubanks
Nick Eubanks

De meest voorkomende scenario’s waarbij we crawler traps tegenkomen zijn e-commerce sites die uit hun dak gaan met hun faceted navigation en de faceted navigation URL parameters gebruiken om content te filteren en sorteren, op basis van bezoekersselectie. Dit wordt exponentieel problematisch wanneer de sitebeheerders besluiten faceted functionaliteit in te zetten voor al hun productvariaties, d.w.z. kleuren, maten, lengtes, gewichten, afwerkingen, opruiming, beoordelingen, merken, enz.

Dit resulteert in honderdduizenden, zo niet miljoenen nieuwe URL’s. Stel parameters in die geen aanzienlijke wijzigingen van content op de pagina veroorzaken en gebruik GSC om Google te vertellen deze niet te crawlen. In sommige gevallen is het misschien zelfs het beste om specifieke en individuele URL’s met parameters uit te sluiten met behulp van robots.txt.

Oneindige redirect loops

Een oneindige redirect loop is een reeks van redirects die nooit eindigt. Wanneer je een redirect loop tegenkomt in Google Chrome, zie je dit:

Redirect loop screenshot

Redirect loops zorgen ervoor dat bezoekers vast komen te zitten op een site en de kans is groot dat ze vertrekken. Google zal over het algemeen redirects niet meer volgen na drie of vier sprongen, en dit schaadt je crawl budget. Hou er rekening mee dat ze na enige tijd de redirects toch weer volgen–dan nog is het beter om dit te voorkomen.

Redirect keten

Hoe komen redirect loops tot stand? Redirect loops zijn vaak het resultaat van een niet al te beste configuratie van redirects. Stel, alle requests voor URL’s zonder een trailing slash worden met 301 geredirect naar de versie met de traling slash, maar vanwege een fout worden alle requests voor URL’s met een trailing slash ook met 301 geredirect naar de versie zonder de trailing slash.

Hoe herstel en voorkom je deze crawler trap?

Redirect loops zijn te herstellen door je redirect configuratie te corrigeren. In het bovenstaande voorbeeld zal het verwijderen van de 301 redirects, die requests sturen van URL’s met een trailing slash naar de versie zonder de slash, de rechtstreekse redirect loop herstellen–en het draagt meteen bij aan de voorkeurs URL-structuur waarbij aan het einde altijd een trailing slash staat.

Op sommige sites worden links naar interne zoekresultaten gemaakt om content te tonen, in plaats van de gangbare content pagina’s. Links naar interne zoekresultaten zijn met name riskant als die links automatisch worden gegenereerd. Dat kan mogelijk duizenden pagina’s van lage kwaliteit opleveren.

Laten we een voorbeeld nemen: je houdt de populairste zoekopdrachten van je website bij, en je koppelt ze automatisch vanuit je content, omdat je denkt dat dat nuttig is voor je bezoekers. Deze pagina’s met zoekresultaten kunnen wel eens weinig tot geen resultaten bevatten, waardoor content van lage kwaliteit toegankelijk is voor zoekmachines.

Hoe herstel en voorkom je deze crawler trap?

Linken naar interne zoekresultaten is slechts zelden beter dan gewone content pagina’s, maar vind je het echt nuttig om deze links aan je bezoekers te tonen, maak dan in ieder geval deze pagina’s met interne zoekresultaten niet toegankelijk voor zoekmachines met behulp van het robots.txt bestand.

Voorbeeld:

Disallow: /search/ #blokkeer toegang tot pagina's met interne zoekresultaten
Disallow: *?s=* #blokkeer toegang tot pagina's met interne zoekresultaten

Als om een of andere reden het gebruik van het robots.txt bestand geen optie is, kun je ook de URL parameters in Google Search Console en Bing Webmaster Tools instellen.

Dynamisch ingevoegde content

Een manier om content dynamisch in een pagina in te voegen, is door deze in te voegen via woorden uit de URL. Dit is erg tricky omdat zoekmachines dan een heleboel pagina’s kunnen vinden met content van lage kwaliteit.

Laten we een voorbeeld gebruiken om deze crawler trap toe te lichten.

www.example.com/pants/green/ heeft een H1 heading met de tekst: “Koop groene broeken online bij de voorbeeld shop”. En er worden inderdaad groene broeken getoond. Klinkt goed toch?

Maar wat als www.example.com/pants/pink/ HTTP status 200 retourneert en een H1 heading bevat met de tekst “Koop roze broeken online bij de voorbeeld shop”… maar helemaal geen roze broeken toont?

Ja, dat zou niet best zijn.

Dit is alleen een probleem als zoekmachines dergelijke pagina’s kunnen vinden, en als pagina’s zonder resultaten ook de HTTP status 200 retourneren.

Hoe herstel en voorkom je deze crawler trap?

Er zijn een paar dingen die je kunt doen om dit probleem op te lossen:

  • Zorg ervoor dat er geen interne links zijn naar dit soort pagina’s.
  • Externe links heb je natuurlijk niet in de hand, dus zorg ervoor dat pagina’s die niet toegankelijk mogen zijn en geen resultaten weergeven, een HTTP status 404 retourneren.

Oneindige kalender pagina’s

Veel websites hebben kalenders voor het inplannen van afspraken. Dat is prima–zolang de kalender maar correct is geïmplementeerd. Het probleem met deze kalenders is dat ze vaak de datums die moeten worden weergegeven in de URL plaatsen, en ondertussen laten ze je ver, ver in de toekomst gaan. Soms zelfs duizenden jaren.

Zoals je ziet is deze crawler trap vergelijkbaar met URL’s met query parameters, die we al hebben besproken. Maar het komt zo vaak voor dat het zinvol is om er een speciale sectie aan te wijden.

Een typerende URL structuur voor een kalender zou zijn:

  • www.example.com/appointment?date=2018-07 voor juli 2018
  • www.example.com/appointment?date=2018-08 voor augustus 2018
  • www.example.com/appointment?date=2018-09 voor september 2018
  • enz.

Dit leidt tot een vloedgolf van pagina’s die oninteressant zijn voor zoekmachines, dus je wil ze hier weghouden.

Hoe herstel en voorkom je deze crawler trap?

Er zijn een paar dingen die je kunt doen om te voorkomen dat kalenders een probleem vormen:

  • Zorg ervoor dat je slechts een redelijk aantal toekomstige maanden opgeeft voor afspraken.
  • Voeg het nofollow link attribuut toe aan je “Volgende Maand” en “Vorige Maand” links.
  • Maak de kalender URL’s ontoegankelijk voor zoekmachines met behulp van het robots.txt bestand.

Er is een type foute link die ook een crawler trap kan creëren. Dit gebeurt vaak wanneer men relatieve URL’s gebruikt en de eerste slash weglaat.

Laten we kijken naar een voorbeeld link:

<a href="shop/category-x">Category X</a>

Het probleem hier is dat de eerste slash ontbreekt die eigenlijk voor ‘shop’ moet staan. Dit zou correct zijn geweest:

<a href="/shop/category-x">Category X</a>

Wat gebeurt er als je de verkeerde link gebruikt? Browsers en zoekmachines zullen allebei shop/category-x achter de huidige URL plaatsen. Dat ziet er dan zo uit: example.com/some-page/shop/category-x/ terwijl eigenlijk bedoeld was example.com/shop/category-x/. Op example.com/some-page/shop/category-x/ zal de link naar deze pagina worden: example.com/some-page/shop/category-x/shop/category-x/, en op die vervolgens example.com/some-page/shop/category-x/shop/category-x/shop/category-x/, en zo verder, tot in het oneindige.

Wanneer deze onjuist gelinkte pagina’s een HTTP status code 200 (“OK”) retourneren in plaats van 404 (“Pagina niet gevonden”) hebben we een probleem. Zoekmachines proberen deze pagina’s vervolgens te indexeren, waardoor veel pagina’s van lage kwaliteit worden geïndexeerd. (Als de onjuist gelinkte pagina’s gewoon een HTTP status code 404 retourneren, is dit geen enorm probleem.)

Deze crawler trap is vooral rampzalig als deze wordt gebruikt in navigatiestructuur elementen, zoals de hoofdnavigatiebalk, de zijbalk en de footer. Dan bevatten alle pagina’s op de site zo’n onjuiste link– inclusief de pagina’s waar je ten onrechte naar had gelinkt.

Hoe herstel en voorkom je deze crawler trap?

Er zijn een paar dingen die je moet doen om deze crawler trap te herstellen of te voorkomen:

  • Controleer je website op onjuiste links. Als je dit doet, zul je opmerken dat er een drastische toename is van nieuwe gevonden pagina’s en zul je het probleem snel vinden.
  • Zorg ervoor dat pagina’s die niet bestaan een HTTP status code 404 retourneren.

Best practices om crawler traps doorgaans te voorkomen

Best practices om crawler traps te voorkomen zijn tweeledig:

  1. Zorg ervoor dat de technische basis van je website op orde is, en
  2. Zorg voor tools die crawler traps snel vinden.

Zorg ervoor dat de technische basis van je website op orde is

Als je je aan het volgende houdt met betrekking tot je technische basis, kun je crawler traps gemakkelijk voorkomen:

  • Zorg ervoor dat pagina’s die niet bestaan een HTTP status code 404 retourneren.
  • Disallow URL’s die niet door zoekmachines gecrawld mogen worden.
  • Voeg het nofollow attribuut toe aan links die niet door zoekmachines gecrawld mogen worden.
  • Vermijd het dynamisch invoegen van content.

Zorgen voor tools die crawler traps snel vinden

Als je over de juiste tools beschikt om crawler traps snel te vinden, zal je dat een hoop hoofdbrekens besparen en voorkomen dat je een flater slaat. Wat moeten deze tools doen? Ze moeten je website monitoren op:

  • Een plotselinge toename van pagina’s en redirects, en
  • Duplicate content.

Als er crawler traps worden gevonden, wil je dat deze informatie je snel bereikt. Dus je hebt alerts nodig. ContentKing doet dit voor je, dus waarom zou je het niet een keer uitproberen om ervoor te zorgen dat je website vrij is van crawler traps?

ContentKing Academy Content Team
Steven van Vessum
Steven van Vessum

Steven is onze Chief Customer Officer. Hij zorgt ervoor dat onze klanten tevreden zijn én blijven. Daarnaast is hij gek op alles wat met SEO en content marketing te maken heeft!

Vojtěch Zach
Vojtěch Zach

Vojtěch is ContentKing’s Customer Support & Localization Manager. Hij is degene die met veel plezier jouw vragen zal beantwoorden wanneer je contact met ons opneemt. Hij heeft gestudeerd voor vertaler, dus naast het blij maken van onze gebruikers, gaat hij ook graag onze lokalisatie uitdagingen aan.

Susanne Baartman
Susanne Baartman

Susanne is verantwoordelijk voor Customer Support en Nederlandse lokalisatie bij ContentKing. Ze heeft diepgaande kennis van SEO en digitale marketing en helpt onze klanten graag met hun vraagstukken.

Probeer 14 dagen gratis

Binnen 20 seconden aan de slag

Gelieve een geldige domeinnaam (www.voorbeeld.nl) op te geven.
  • Geen credit card nodig
  • Geen installatie nodig
  • Geen verplichtingen