Google num=100 ist Geschichte: Wie dieser Wendepunkt das Fundament für smartes SEO im Zeitalter der KI legt

Google num=100

18

Sep.

Google num=100 ist Geschichte: Wie dieser Wendepunkt das Fundament für smartes SEO im Zeitalter der KI legt

Diesen Beitrag anhören

1. Einleitung: Das Ende eines Parameters und der Beginn einer neuen Ära

Die offizielle Abschaltung des &num=100-Parameters am 14. September 2025 markiert einen symbolischen und doch tiefgreifenden Wendepunkt in der Welt der Suchmaschinenoptimierung (SEO). Was für viele Nutzer, die die Google-Suche für alltägliche Anfragen verwenden, eine unsichtbare technische Lappalie darstellt, signalisiert für SEO-Experten eine fundamentale Veränderung der Suchlandschaft. Der Parameter, der es ermöglichte, bis zu 100 Suchergebnisse auf einer einzigen Seite zu bündeln, war über Jahre hinweg ein unverzichtbares Werkzeug für manuelle Analysen und automatisierte Datenabfragen von SEO-Tools. Sein Verschwinden ist nicht einfach nur ein Rückschritt; es ist eine klare Aufforderung von Google an die Branche, sich von veralteten Metriken zu lösen und über traditionelle SEO-Ansätze hinauszudenken.

Die Entscheidung, diesen Parameter zu beerdigen, ist keine isolierte Aktion. Stattdessen ist sie ein logischer, konsequenter Schritt in Googles umfassender Strategie, die Sucherfahrung durch künstliche Intelligenz (KI) zu revolutionieren. Die Suchmaschine transformiert sich von einem Index, der primär als reaktive Datenbank fungierte, zu einem interaktiven, proaktiven Antwortsystem. Die wahre Chance für „smartes SEO“ liegt somit nicht in der Suche nach einem neuen Workaround, sondern in der Neuausrichtung auf die von Google geförderten, qualitätsorientierten und nutzerzentrierten Faktoren. Der Fokus verlagert sich von der blossen Erfassung von Ranking-Daten auf die Schaffung von Inhalten, die von der neuen KI-Logik als vertrauenswürdig und wertvoll identifiziert werden.

2. Der Fall &num=100: Von der Datenerfassung zur Dateninterpretation

Die historische Bedeutung des Parameters und der direkte Impakt

Für Jahrzehnte war der &num=100-Parameter der Schlüssel für SEO-Profis und Datendienstleister. Er erlaubte es SEO-Tools, die Top 100 Suchergebnisse einer Abfrage in einem einzigen, effizienten API-Aufruf zu extrahieren. Diese massiven Datensätze waren die Grundlage für Rank-Tracking, umfangreiche Keyword-Analysen und die genaue Überwachung von Wettbewerbern. Mit dem Ende des Parameters am 14. September 2025 ist diese Effizienz schlagartig verloren gegangen.

Die unmittelbaren Auswirkungen auf die Branche waren signifikant. Anbieter von SERP-APIs wie DataForSEO und DemandSphere mussten umgehend reagieren und ihre Systeme anpassen. Die neue Realität sieht vor, dass die 100 Suchergebnisse nun nicht mehr mit einem Aufruf, sondern mit 10 separaten Abfragen à 10 Ergebnisse gesammelt werden müssen. Diese Umstellung hat direkte und weitreichende Konsequenzen: Sie erhöht die Kosten für die Datenerfassung um das Zehnfache und verlängert den Zeitaufwand, um die Daten zu beschaffen. Diese Herausforderungen zwingen Anbieter und Agenturen, ihre Preismodelle und internen Workflows grundlegend zu überdenken.

Ein Paradigmenwechsel von quantitativer zu qualitativer Analyse

Die SEO-Branche steht vor einer strategischen Neuorientierung. Der Zwang, die Datenerfassung von 100 Ergebnissen zu verteuern und zu verlangsamen, verschiebt den Fokus automatisch auf das, was wirklich zählt: die Top-Positionen. Click-Through-Rate (CTR)-Modelle der Branche zeigen, dass die Klickraten jenseits der Top 20 bis 30 Ergebnisse ohnehin gegen Null gehen. Die alte Obsession mit der Datenerfassung der Top 100 war somit in vielen Fällen eine ineffiziente und überdimensionierte Praxis.

Die Abschaltung des Parameters kann als eine strategische Massnahme von Google interpretiert werden. Es wird vermutet, dass Google versucht, den grossflächigen, automatisierten Zugriff auf seinen Suchindex zu kontrollieren, insbesondere durch konkurrierende KI-Unternehmen. Google hat kein Interesse daran, dass Dritte seinen wertvollsten Datensatz – die Top 100 Ergebnisse für jede erdenkliche Suchanfrage – kostenlos und ineffizient scrapen. Durch die Abschaltung des Parameters wird die SEO-Branche implizit dazu gezwungen, sich auf die von Google gewünschten, menschenzentrierten Ranking-Faktoren zu konzentrieren, anstatt auf technische Manipulationen oder die Brute-Force-Analyse von Massendaten. Es ist der Schritt weg von der quantitativen Datenerfassung hin zur qualitativen Interpretation der Suchergebnisse, die wirklich Traffic und Wert generieren.

3. Das Ende der «zweiten Seite» und die UX-Revolution

Nutzerverhalten im Fokus: Warum die Top 10 alles sind, was zählt

Die &num=100-Funktion ist ein Relikt aus einer Zeit, in der das Nutzerverhalten stark von traditioneller Paginierung geprägt war. Heutige Analysen des Klickverhaltens zeigen jedoch, dass die zweite Suchergebnisseite in der Praxis kaum relevant ist. Umfassende Studien belegen, dass weniger als ein halbes Prozent der Nutzer zur zweiten Seite weiterklickt. Dieser enorme Klick-Abfall bereits ab Position 4 auf der ersten Seite unterstreicht die Notwendigkeit, auf den absoluten Top-Positionen zu landen. Die strategische Konsequenz ist unmissverständlich: Wenn eine Website nicht auf der ersten Suchergebnisseite erscheint, ist die Wahrscheinlichkeit, signifikanten organischen Traffic zu erhalten, verschwindend gering.

Der Aufstieg des unendlichen Scrollens und «Load More»

Die Entfernung der &num=100-Funktionalität untermauert Googles Abkehr von statischer Paginierung hin zu flüssigeren, mobil-freundlicheren Benutzeroberflächen wie unendlichem Scrollen (infinite scroll) und „Load More“-Buttons. Während diese Darstellungsformen die Benutzererfahrung (UX) verbessern, indem sie ein nahtloses Surferlebnis ohne manuelle Seitenwechsel ermöglichen, stellen sie traditionelle Suchmaschinen-Crawler vor Herausforderungen. Bots können im Gegensatz zu menschlichen Nutzern nicht scrollen oder auf Buttons klicken, um mehr Inhalte zu laden. Dies kann dazu führen, dass Inhalte, die erst durch eine Nutzerinteraktion sichtbar werden, nicht indiziert werden.

Die Lösung: SEO-freundliches unendliches Scrollen

Google hat jedoch bereits vor langer Zeit Leitlinien für die Implementierung eines SEO-freundlichen unendlichen Scrollens herausgegeben. Die zentrale Empfehlung ist, unendliches Scrollen als eine visuelle Verbesserung zu betrachten, die auf einer soliden, paginierten Basis aufbaut, den sogenannten „component pages“. Jede dieser Unterseiten sollte eine eigene, eindeutige URL haben, die in den Browserverlauf integriert wird, und der gesamte Content muss auch ohne aktiviertes JavaScript zugänglich sein.

Die Entfernung des &num=100-Parameters verdeutlicht ein fundamentales Paradoxon: Während die Anzeige von 100 Ergebnissen pro Seite für menschliche Nutzer irrelevant geworden ist, bleibt die technische Struktur einer sauberen, paginierten Website für die Indexierung durch die Crawler von zentraler Bedeutung. Google trennt klar zwischen der Präsentation für den Menschen und der Struktur für den Bot. Bots benötigen eine klare, logische Anordnung mit eindeutigen URLs wie example.com/category?page=1. Die Abschaffung des Parameters macht deutlich, dass Google eine saubere, von Entwicklern implementierte Paginierung bevorzugt, die den Bots eine klare Struktur bietet, anstatt Workarounds wie &num=100 zu tolerieren, die eine alte Denkweise der Datenmanipulation repräsentieren. Der Fokus liegt nicht mehr darauf, wie viele Ergebnisse man anzeigen kann, sondern wie klar man den gesamten Inhalt strukturiert, um ihn für die Suche zugänglich zu machen.

4. Die KI-gesteuerte Suchlandschaft: Von Keywords zu Absichten

Vom Keyword zur natürlichen Sprache

Das Suchverhalten der Nutzer hat sich dramatisch verändert. Anstelle starrer, roboterhafter Keywords formulieren Nutzer ihre Anfragen heute zunehmend in natürlicher Sprache. Die Google-Suche hat sich dieser Entwicklung angepasst und liefert immer häufiger direkte Antworten, die oft ohne einen Klick auf eine Website auskommen. Studien zeigen, dass inzwischen über die Hälfte aller Suchanfragen als „Zero-Click-Searches“ enden. Diese Entwicklung stellt die blosse Präsenz in den Top 10 in Frage und macht eine neue Metrik entscheidend: die Fähigkeit, als vertrauenswürdige Quelle in den KI-generierten Antworten zu erscheinen.

Meilensteine der KI-Ära

Die aktuelle Suchlandschaft ist das Ergebnis einer kontinuierlichen, KI-gesteuerten Evolution, die mit bahnbrechenden Algorithmus-Updates begann:

  • RankBrain (2015): Als erster KI-Algorithmus von Google lernte RankBrain, den Kontext und die Absicht hinter Suchanfragen zu verstehen. RankBrain war nicht direkt für Websites optimierbar, sondern bewertete die Qualität der Inhalte und das Nutzerverhalten, um zu entscheiden, welche Website für welche Suchanfrage am relevantesten ist.
  • BERT (2018): Mit Bidirectional Encoder Representations from Transformers (BERT) verbesserte Google sein Verständnis von natürlicher Sprache. BERT kann Wörter in einem Satz in beide Richtungen lesen und die Nuancen von Begriffen im Kontext erkennen. Dies war das Ende der einfachen Keyword-Optimierung und der Beginn des semantischen SEO, bei dem der gesamte thematische Zusammenhang eines Textes entscheidend wurde.
  • MUM (2021): Das Multitask Unified Model (MUM) geht über die Fähigkeiten von BERT hinaus. MUM ist in der Lage, nicht nur Text, sondern auch Bilder, Videos und Audio gleichzeitig zu verstehen (multimodal) und kann Inhalte in über 75 Sprachen verarbeiten. MUM ermöglicht es Google, auf komplexe Anfragen umfassende, visuell angereicherte Antworten zu liefern und eine 360-Grad-Sicht auf ein Thema zu bieten.

Die Search Generative Experience (SGE) und die Rolle von ChatGPT

Googles Antwort auf den Erfolg grosser Sprachmodelle wie ChatGPT ist die Search Generative Experience (SGE). Die SGE liefert direkt auf der Suchergebnisseite eine KI-generierte, zusammenfassende Antwort auf die Nutzeranfrage. Diese Antworten sind mit Quellenangaben versehen, was die Rolle von Google als direkter Beantworter und nicht nur als Vermittler von Informationen unterstreicht . Für SEO-Experten bedeutet dies, dass es nicht mehr ausreicht, ein gutes Ranking zu erzielen. Der Inhalt muss so qualitativ hochwertig und vertrauenswürdig sein, dass er von Google als Quelle für diese KI-Antworten ausgewählt wird. Studien zeigen eine hohe Korrelation zwischen einem guten Google-Ranking und der Erwähnung in Antworten von KI-Chatbots. Die Kette der Ereignisse ist unmissverständlich: KI-Updates haben Google dazu befähigt, die Absicht hinter einer Suchanfrage besser zu verstehen. Dies hat zur Zunahme von Zero-Click-Suchen geführt. Die Abschaffung des &num=100-Parameters ist daher die logische Konsequenz: Das alte, keyword-zentrierte SEO, bei dem man auf der zweiten oder dritten Seite «lauern» konnte, verliert massiv an Bedeutung, da der gesamte Fokus der KI auf den ersten 10 Ergebnissen und der sofortigen Befriedigung der Nutzerabsicht liegt.

5. Smartes SEO: Die neuen Erfolgsfaktoren im Zeitalter der KI

Die jüngsten Entwicklungen und geleakten Dokumente von Google bieten eine unmissverständliche Bestätigung: Die Zukunft des SEO liegt nicht in der Manipulation, sondern in der Schaffung von echtem Wert für den Nutzer. Der &num=100-Workaround gehört zu einer veralteten Ära. Die wahren Ranking-Faktoren sind jene, die eine herausragende, nutzerzentrierte Online-Präsenz ausmachen.

Das Fundament: E-E-A-T und Content-Qualität

Die Google Quality Raters Guidelines haben seit Jahren die Bedeutung von E-E-A-T (Experience, Expertise, Authoritativeness, and Trustworthiness) betont. Die geleakten Google API-Dokumente aus dem Mai 2024 bestätigen nun, dass diese Konzepte keine blossen Richtlinien sind, sondern in konkrete Algorithmus-Metriken übersetzt werden. So existieren interne Scores wie „siteAuthority“ und „authorName“, die die Glaubwürdigkeit und Fachkompetenz einer Website und ihrer Autoren bewerten.

Die Dokumente widerlegen die Annahme, dass die reine Textlänge ein entscheidender Faktor ist. Stattdessen wird die Originalität des Inhalts mit der Metrik „theOriginalContentScore“ bewertet. Umfangreiche, gut recherchierte Beiträge, die eine Nutzerabsicht vollständig befriedigen, ranken eindeutig besser. Zudem bestätigen die Leaks, dass die Aktualität des Contents ein wichtiger Ranking-Faktor ist, der anhand von Datumsangaben im Text, der URL und dem Seitentitel bewertet wird. Die folgende Tabelle fasst diesen Paradigmenwechsel prägnant zusammen:

Veraltete SEO-PraxisGrundlage der AnnahmeSmarte SEO-StrategieGrundlage der Bestätigung
Keyword-Stuffing & Keyword-DichteAnnahme, dass Algorithmen durch hohe Keyword-Frequenz getäuscht werden.Fokus auf Suchintention und semantisches SEOGoogle-Updates (BERT, MUM) verstehen den Kontext und bestrafen unnatürliche Sprache .
Link-Kauf und Link-SpamAnnahme, dass die blosse Anzahl von Backlinks das Ranking steigert.Qualität vor Quantität & thematische RelevanzGeleakte Dokumente bestätigen, dass Backlinks als wichtiger Ranking-Faktor wirken , aber die Qualität, Relevanz und Domain Authority der verlinkenden Seite entscheidend sind .
Generischer ContentFokus auf Masse und schnelle Veröffentlichung ohne Mehrwert.E-E-A-T & OriginalitätGeleakte Dokumente bestätigen Metriken wie „siteAuthority“, „authorName“ und „theOriginalContentScore“ .
Fixierung auf die PositionRanking-Überwachung auf Platz 20-100 als primäres Ziel.Fokus auf die Top 10CTR-Daten zeigen, dass über 99 % der Klicks auf der ersten Seite erfolgen. Die Abschaffung des &num=100-Parameters unterstreicht diese Relevanz.

Die Rolle von Nutzersignalen und UX (User Experience)

Die Google API-Leaks haben auch eine der grössten Kontroversen in der SEO-Welt gelöst: Sie bestätigen, dass Nutzersignale ein essenzieller Ranking-Faktor sind. Entgegen früherer öffentlicher Aussagen, dass Klicks keine direkten Ranking-Faktoren seien, zeigen die Dokumente, dass Google seit 2005 Klick-basierte Metriken wie „goodClicks“, „badClicks“ und „unsquashedClicks“ verwendet, um die Qualität und Relevanz von Webseiten zu bewerten.

Eine schlechte Benutzererfahrung, die durch «Pogosticking» signalisiert wird – Nutzer klicken auf ein Suchergebnis, kehren sofort zur SERP zurück und klicken ein anderes an – kann zu einem massiven Rankingverlust führen. Daher ist eine gute UX-Strategie nicht nur wünschenswert, sondern ein direkter SEO-Faktor. Eine Website, die schnell lädt (Core Web Vitals), mobilfreundlich ist, eine klare Navigation hat und keine ablenkende Werbung anzeigt, wird von Google als qualitativ hochwertig bewertet.

Der Wandel im Linkbuilding

Die geleakten Dokumente bestätigen die anhaltende Bedeutung von Backlinks . Links von anderen Webseiten werden weiterhin als „Votes of Confidence“ gewertet. Der entscheidende Faktor ist jedoch nicht die Quantität, sondern die Qualität und thematische Relevanz. Links von qualitativ hochwertigen, thematisch relevanten Quellen sind weiterhin ein «Trust Signal» für Google . Die Leaks zeigen, dass Backlinks als „Modifikator auf zahlreiche Rankingfaktoren und Twiddler“ wirken, was ihre komplexe und weitreichende Bedeutung unterstreicht.

6. AI als strategischer Partner: Tools für die Effizienz von morgen

Die Transformation der Suchlandschaft bedeutet nicht das Ende von SEO, sondern die Evolution des SEO-Profis. Im Zeitalter der KI verlagert sich der Fokus von der manuellen Arbeit hin zur strategischen Anwendung von Technologie.

Intelligente Content-Erstellung und -Optimierung

Moderne KI-Tools wie Frase oder SEO.AI sind keine simplen Texter-Maschinen, die unüberprüften Content generieren. Sie sind ganzheitliche Content-Workstations, die den menschlichen Experten bei der strategischen Arbeit unterstützen. Sie können die Analyse der Top-10-SERP-Ergebnisse übernehmen, um Themenlücken, Fragen und fehlende Keywords zu identifizieren. Mit diesen Daten können sie datengestützte Gliederungen in Sekundenschnelle erstellen und einen „SEO Score“ in Echtzeit anzeigen, der die Optimierung des Inhalts anleitet. Der Mensch kann sich dadurch auf die kreative Arbeit, das Verfassen von qualitativ hochwertigem und einzigartigem Content, konzentrieren.

Nutzung von LLMs wie ChatGPT in der SEO-Praxis

Auch Large Language Models (LLMs) wie ChatGPT können strategisch in den SEO-Workflow integriert werden. Sie sind ein hervorragender Ausgangspunkt für die Recherche von Themen und die Generierung von „Seed Keywords“. ChatGPT kann bei der Optimierung von On-Page-Elementen wie Titel-Tags und Meta-Beschreibungen helfen, die weiterhin wichtige Signale sind. Zudem kann es Vorschläge für Latent Semantic Indexing (LSI) Keywords liefern, um die thematische Relevanz zu erhöhe.

Trotz dieser Vorteile bleibt die menschliche Kontrollinstanz unabdingbar. KI-Tools sind nicht unfehlbar und können „halluzinieren“, also falsche Informationen generieren. Sie kennen in der Regel keine aktuellen Suchvolumina, und ihre Vorschläge sollten stets mit professionellen SEO-Tools gegengeprüft werden. Die Zukunft des SEO-Experten liegt nicht im blinden Vertrauen auf Technologie, sondern in der strategischen Nutzung von KI als Partner, um die Effizienz zu steigern und sich auf die Kernaufgaben zu konzentrieren: die Schaffung von herausragenden, nutzerzentrierten Inhalten.

7. Fazit: SEO stirbt nicht, es wird erwachsen

Die Abschaffung des &num=100-Parameters ist ein Weckruf an die SEO-Community. Sie ist Teil eines grösseren Plans von Google, die Sucherfahrung durch KI zu revolutionieren und Qualität über alles zu stellen. Die Erkenntnisse aus den jüngsten Dokumenten-Leaks bestätigen, dass das, was lange als „Best Practices“ galt – E-E-A-T, gute UX und hochwertige Inhalte – in Wahrheit die fundamentalen, internen Rankingfaktoren sind. Die neue Ära belohnt Authentizität und Wert, nicht Tricks und Manipulation. Die Zukunft des SEO liegt nicht in der Analyse von 100 irrelevanten Suchergebnissen, sondern in der Schaffung herausragender, vertrauenswürdiger und menschenzentrierter Erlebnisse, die die Nutzer dazu bewegen, zu klicken und zu verweilen. Wer sich auf dieses Fundament konzentriert, sichert sich nicht nur die Top-Positionen bei Google, sondern auch eine tragende Rolle in der nächsten Generation der KI-gesteuerten Suche. Die alten Regeln sind irrelevant; die neuen Regeln sind klar, und sie belohnen Wert, nicht die Fähigkeit, einen URL-Parameter zu manipulieren.

Weiterführende links:

Pageranger

RELATED

Posts