Half september ging er een schokgolf door de SEO-wereld: Google heeft de URL-parameter &num=100 uitgezet, de “shortcut” waarmee je 100 organische resultaten op één SERP-pagina kon forceren in plaats van de standaard 10.
Voor doorsnee gebruikers lijkt dit een verwaarloosbaar technisch detail. Voor iedereen die rankings volgt, dashboards bouwt en beslissingen neemt op basis van Google Search Console (GSC), is het een gamechanger.
In deze blog leggen we in gewone mensentaal uit wat er veranderd is, waarom je plots minder impressies ziet in GSC, hoe dit het debat rond AI-Overviews en de “Great Decoupling” herkadert, en vooral: wat je er als marketeer of zaakvoerder vandaag concreet mee moet doen.
Wat betekent &num=100 en waarom is het belangrijk?
Jarenlang kon je aan het einde van een Google-zoek-URL &num=100 toevoegen. Google laadde dan 100 organische resultaten op één pagina. Voor professionals en SEO-tools was dat efficiënt: met één request kreeg je de top-100, in plaats van 10 aparte paginacalls om pagina 1 t/m 10 af te lopen.
Rank-tracking, SERP-analyses, volatiliteitsmetingen… veel workflows waren hierop gebouwd. Door het wegvallen van &num=100 moet een tool of crawler nu ruwweg tien keer vaker “klikken” of scrollen om dezelfde 100 resultaten te verzamelen. Dat betekent meer belasting, meer latency, meer IP-rotatie, meer mitigaties om niet geblokkeerd te worden en dus hogere kosten of beperkingen in wat tools nog praktisch kunnen leveren.
Voor de duidelijkheid: dit verandert niets aan hoe Google jouw site rangschikt. Het verandert wel hoe we meetpunten ophalen en hoe sommige metrics (zoals impressies) tot stand komen in onze rapporten. En dat is exact waar de verwarring en de onrust vandaan komt.
Waarom je Search Console-impressies kelderen (zonder dat je SEO instort)
De kern zit in hoe GSC een “impressie” telt. In Google’s eigen definitie volstaat het dat jouw resultaat op de huidige pagina staat; een gebruiker hoeft zelfs niet naar beneden te scrollen zolang het resultaat in de geladen pagina zit.
Met andere woorden: als iemand een SERP (Search Engine Results Page) opent die 100 resultaten bevat, krijgen ook posities 11–100 een impressie, ook al ziet of klikt niemand die. Zodra je &num=100 weghaalt en de standaard 10 resultaten terugkrijgt, verdwijnen die “extra” impressies.
Dat is precies wat de markt sinds 10–14 september observeert: forse dalingen in impressies (vooral op desktop, waar veel tracking draait), terwijl clicks en verkeer vaak stabieler blijven.
Dat voelt contra-intuïtief. De voorbije 12 maanden zagen we immers vaak het omgekeerde: een sterke toename in impressies zonder gelijke groei in clicks, wat leidde tot de hypothese dat AI-Overviews massaal vertoningen “afvingen” zonder door te klikken.
Nu we zien dat het uitschakelen van &num=100 een groot pak impressies wegsnijdt, moeten we erkennen dat een deel van de vroegere piek geen menselijke vraag was, maar een meetartefact: geautomatiseerde laadsessies van tools die 100 resultaten tegelijk opvroegen.
Het gevolg is geen “zichtbaarheidscrash”, maar een opschoning van het meetproces. Je cijfers worden soberder, maar ook representatiever voor echte gebruikersinteracties.
De “Great Decoupling” in nieuw daglicht
Het fenomeen waarbij impressies explodeerden terwijl clicks achterbleven, werd vaak gekoppeld aan de uitrol en het opschalen van AI-functionaliteit in Search. De huidige datapunten suggereren dat dat verhaal minstens deels onvolledig was.
Er was een decoupling, maar een niet-verwaarloosbaar stuk daarvan kwam van bots die 100-resultatenpagina’s laadden, waardoor méér posities “zichtbaar” werden volgens GSC’s definitie, zonder dat daar echte gebruikers achter zaten.
Dat betekent niet dat AI-Overviews géén impact hebben gehad; het betekent wél dat je ze niet uitsluitend op basis van “impressies ↑, clicks ↔” kunt beoordelen.
Nu de ruis grotendeels wegvalt, kunnen we nuchterder analyseren waar AI-features wél en niet invloed op hebben.
Waarom vooral desktop harder geraakt is dan mobiel
De meeste rank-tracking en SERP-monitoring draait primair op desktopinstellingen. Veel projecten zijn ooit zo opgezet en zijn zo gebleven, omdat desktop-resultaten voorspelbaarder zijn voor structurele vergelijkingen en omdat je daardoor minder variatie hebt in mobiele UI-elementen.
Als &num=100 dan vooral in die desktopworkflows werd gebruikt, is het logisch dat je in GSC de grootste hap uit desktop-impressies ziet verdwijnen. Mobiel, waar minder 100-weergaven werden gegenereerd, toont dan een kleinere correctie.
Wat dit betekent voor rank-tracking en tooling
Voor rank-trackingproviders is dit geen kleine aanpassing maar een existentiële. Als je voor elke keyword-check tien keer zoveel requests nodig hebt om tot een top-100 te komen, stijgt je kostprijs, daalt je throughput en vergroot je kans op blokkades.
Dat vertaalt zich in drie mogelijke reacties: (1) prijzen verhogen, (2) minder diep tracken, of (3) de methode fundamenteel herzien (andere bronnen, panels, clickstream, combinaties). In de praktijk zie je al beweging richting top-20 als nieuwe standaard. Voor performance-sturing is dat op zich geen ramp: het overgrote deel van het verkeer komt uit de bovenste posities, en strategisch is “rank 53” veel minder actiegericht dan “rank 8 → 5”.
Semrush, Ahrefs en andere spelers hebben publiek gecommuniceerd over de impact en polsen actief of data onder top-20 nog “de moeite” is. Enkele partijen hebben hun diepte al bijgesteld of nieuwe producten gelanceerd die de focus verleggen naar wat er écht toe doet: vindbaarheid in de top, veranderingen die click-through beïnvloeden, en contextuele SERP-features. Het landschap is in beweging, en dat zal de komende weken/maanden zo blijven.
Past dit in een bredere anti-scraping-koers van Google?
Alles wijst daarop. Google heeft recent vacatures gepubliceerd voor profielen die expliciet focussen op anti-scraping in Search. Het doel: patronen detecteren, impact meten en modellen uitrollen die scrapers blokkeren of neutraliseren. Samen met het uitschakelen van &num=100 vertelt dat een duidelijk verhaal. Namelijk: Google wil de volkshuisvesting van bulk-SERP-scraping verminderen.
Dat is begrijpelijk. Massaal en frequent SERP’s trekken verstoort niet alleen infrastructuur, het beïnvloedt óók hoe derde-partijdatasets worden geïnterpreteerd (zoals GSC-impressies) en zet deuren open voor misbruik.
Er speelt nog iets mee. De afgelopen maanden verschenen sterke aanwijzingen dat generatieve AI-producten (waaronder ChatGPT) via scraping-diensten Google-resultaten gebruiken om realtimeantwoorden te geven. Je hoeft geen cynicus te zijn om te snappen dat Google dat kanaal minder aantrekkelijk wil maken. Minder makkelijke “full-page grabs” betekent minder goedkope, grootschalige replicatie van Google’s SERP-outcomes door derden. Vanuit ecosysteem-beheer bekeken is het logisch dat Google hier de teugels aantrekt.
Wat is er niet veranderd?
Belangrijk om te benadrukken: je rankingmechaniek is niet ineens anders. Google kent je relevantie en autoriteit nog steeds toe op basis van honderden signalen. De verandering zit in de manier waarop wij data capteren en terugzien in onze dashboards en statistieken.
Dat GSC-impressies dalen, hoeft dus níet te betekenen dat je échte zichtbaarheid bij mensen ingestort is. Kijk altijd naar de combinatie van metrics: clicks, sessies, conversies, en bewegingen binnen de top-posities (1–10 of desnoods 1–20). Dáár zit de businesswaarde.
Wat vertel je (we 🙃) aan stakeholders en klanten?
Hou het menselijk en feitelijk. Leg uit dat Google een technische snelweg heeft afgesloten die vooral door tools gebruikt werd en dat daardoor een deel van de kunstmatig opgeblazen impressies nu verdwenen is.
Benadruk dat dit een opschoning is, geen onmiddellijke SEO-regressie. En dat je rapportage daarom wordt bijgestuurd om dichter bij echte gebruikersgedrag te blijven.
Managers en commerciële teams hebben geen boodschap aan crawlers en parameters; ze willen weten of ze nog gevonden en gekozen worden. Toon dat met clicks, CTR in de top, en business-metrics.
Want laat ons eerlijk zijn, de tweede pagina van Google gebruikt bijna niemand.
Wat doe je nu, concreet? (AT Digital-aanpak)
1) Annoteren en herijken.
Zet in al je maandrapporten een duidelijke annotatie rond 10–14 september 2025: “&num=100 uitgeschakeld – meetbreuk in impressies.” Herkijk tegelijk je KPI-kader: minder gewicht op ruwe impressies, meer nadruk op clicks, CTR binnen top-10, gemiddelde positie binnen top-10, en landingspagina’s die effectief verkeer binnenhalen. Dat zijn de metrics waar je écht op kunt sturen.
2) Desktop vs. mobiel uitgesplitst.
Maak een pre/post-vergelijking en toon expliciet het verschil tussen desktop en mobiel. Je zal zien dat het grootste stuk van de daling op desktop zit. Dat visualiseren helpt om het gesprek intern te ontmijnen: “We hebben niets verloren in de markt; we meten cleaner.”
3) Rapportages slimmer opbouwen.
Vervang tabellen met ellenlange “top-100-lijsten” door compacte, actiegerichte overzichten: top-20 posities, opportuniteiten die op de rand van top-10 staan, en queries/pagina’s met stijgende CTR. Combineer dat met user intent en SERP-features (featured snippets, sitelinks, PAA, video, lokale packs) die klikgedrag sturen. Dit is het stuk waar je waarde creëert, niet op positie 67.
4) Tooling en kosten bewaken.
Ga uit van top-20 als default trackingdiepte. Gebruik “deep-dips” ad hoc waar business-kritisch (bijv. high-value queries waar je in de buurt van top-20 zit, of competitieve analyses). Dit houdt kosten beheersbaar en data beter gericht op beslissingen. Blijf ondertussen de updates van je vendor(s) volgen: sommige providers passen hun modellen, methodes en prijzen aan in de komende maanden.
Zo lang de tools nog de 100-20 posities aanbieden geven die een ruwe insight, maar we merken dat deze posities veel volatieler zijn dan voorheen.
5) Educatie rond AI-SERP’s.
Hou de nuance in het AI-overviews-verhaal. Nu de meetruis is afgenomen, kunnen we preciezer beoordelen welke topics en intents wél door AI-kaders worden “afgevangen” en waar klassieke blauwe links blijven domineren. Gebruik die inzichten voor content-prioritering en SERP-feature-optimalisatie.
6) Communicatie klaarzetten.
Schrijf één korte, niet-technische verklaring voor directie en klanten: “Waarom zijn impressies gezakt? Omdat onzichtbare bot-impressies zijn opgeschoond. Onze zichtbaarheid in de top en ons verkeer zijn de graadmeters en daarop sturen we.”
Veelgestelde vragen, helder beantwoord
Zijn onze rankings echt gedaald?
Niet noodzakelijk. De daling zit vooral in hoe impressies geteld worden. Controleer de posities binnen top-10/20 en je clicks/verkeer. Als die gezond blijven, is er geen sprake van een zichtbaarheidscrash, enkel van minder ruis in de meting.
Waarom zie ik soms zelfs een betere gemiddelde positie?
Omdat lagere posities buiten de eerste pagina niet langer “gratis” meegeteld worden in impressies. Daardoor verschuift je gemiddelde naar wat er écht op pagina 1 gebeurt. Dat geeft een realistischer beeld van waar je doelgroep je ziet.
Moeten we nog wel naar posities buiten top-20 kijken?
Operationeel is de winst klein. Strategisch kán het zinvol zijn voor marktonderzoek of voor opportuniteiten die “net buiten” pagina 1 zweven. Daarom adviseren we deep-dips waar relevant, maar niet standaard voor elk keyword.
Komt &num=100 ooit terug?
Reken er niet op. Alles wijst op een structurele koers waarbij Google scraping lastiger en duurder maakt en waarin de nadruk ligt op kwaliteit, niet op bulk.
Wat met AI-Overviews dan?
Die bestaan en hebben impact, maar we gaan die impact voortaan meten met schone data en intent-specifieke analyses, in plaats van te leunen op impressievolumes die achteraf gezien deels door bots geduwd werden.
Wat betekent dit voor jouw marketingbeslissingen?
Dit is het moment om terug te keren naar de essentie: gevonden worden door de juiste zoeker, op de juiste intent, en gekozen worden. Rankings zijn geen doel op zich, maar een middel. Een rapport dat focust op top-posities, CTR en daadwerkelijke bezoeken naar conversiepagina’s vertelt je of je marketing werkt. De rest is context. De opschoning door het wegvallen van &num=100 dwingt de sector om volwassen te rapporteren: minder vanity metrics, meer businesswaarde.
Bij AT Digital zijn we daar blij om. We houden van data, maar enkel als die ons helpt betere beslissingen te nemen. Minder ruis betekent dat we onze energie kunnen steken in strategie: content die vragen beantwoordt, technische verbeteringen die crawlbaarheid en snelheid verhogen, en UX-optimalisaties die clicks omzetten in leads en sales. Dáár win je de wedstrijd, niet op positie 73.
Hoe wij je helpen
- We leveren een klantvriendelijke memo in onze rapportage waarmee je intern uitlegt wat er veranderd is.
- We reviewen je SERP-landschap: welke features bepalen clicks in jouw niche, en waar liggen snelle kansen om CTR te verhogen.
- We voorzien een maandelijkse interpretatie van de cijfers, zodat iedereen in de organisatie begrijpt wat er echt toe doet.
Bronnen en verdere lectuur
- Search Engine Land — “Google Search confirms it does not support the results per page parameter” (Sep 18, 2025). Search Engine Land
Search Engine Land — “Google Search rank and position tracking is a mess right now” (Sep 15, 2025). Search Engine Land
Search Engine Land — “77% of sites lost keyword visibility after Google removed num=100” (Sep 18, 2025). Search Engine Land - Search Engine Roundtable — “Google Search Testing Dropping 100 Search Results Parameter” (Sep 12, 2025). Search Engine Roundtable
- Search Engine Roundtable — “Impact Of Google Blocking Bots On Search Console Data” (Sep 2025). Search Engine Roundtable
- Search Engine Journal — “Google Modifies Search Results Parameter, Affecting SEO Tools” (Sep 15, 2025). Search Engine Journal
- Search Engine Journal — “The Future Of Rank Tracking Can Go Two Ways” (Sep 2025). Search Engine Journal
- Google Support — “What are impressions, position, and clicks?” (GSC-documentatie). Google Help
- Brodie Clark — “Were We Wrong About ‘The Great Decoupling’ After All?” (analyse &num=100 en GSC-effecten). Brodie Clark Consulting
- AccuRanker — “Important Update to SERP Tracking Depth” (top-20 als nieuwe default). AccuRanker
- AccuRanker — “Num 100 Google Update” (context en productaanpassingen). AccuRanker
- Tim Soulo (Ahrefs CMO) — publieke post “Do you need keyword ranking data below Top20?” (X/LinkedIn, Sep 2025). X (formerly Twitter)+1
- Google Careers — “Engineering Analyst, Anti-scraper, Search” (jobposting en omschrijving). Google
- Search Engine Journal — “Google is Hiring an Anti-Scraping Engineering Analyst” (duiding jobfocus). Search Engine Journal
- Search Engine Roundtable — “Google Search Anti-scraper job now closed” (update status vacature). Search Engine Roundtable
- Search Engine Land — “ChatGPT’s answers came from Google Search after all” (SerpApi-link). Search Engine Land
- Search Engine Roundtable — “ChatGPT Using SerpApi To Scrape Google Search Results” (naar The Information). Search Engine Roundtable
- The Information — “OpenAI has been using Google Search data via SerpApi” (achtergrond). The Information+1



