Im September 2025 hat Google einen URL-Parameter stillgelegt, den die meisten SEOs nie bewusst benutzt haben. &num=100 war der technische Trick, mit dem Rank-Tracker wie SEMrush, Ahrefs oder Sistrix 100 Suchergebnisse in einem einzigen Request abgreifen konnten. Zwischen dem 12. und 14. September hat Google aufgehört, das Ausnutzen dieses Parameters zu ermöglichen und plötzlich waren auch die Zahlen in der Google Search Console komisch.
Eine Analyse von Tyler Gargula (Locomotive Agency) über 319 Properties zeigt die Dimension: 87,7% der Websites verloren Impressionen, 77,6% verloren sichtbare Keywords. Die durchschnittliche Position sieht dadurch sogar besser aus, und die Klicks bleiben stabil – weil nur die Bot-Impressionen aus den hinteren Positionen wegfallen, nicht die Klicks realer Nutzer.
Deswegen ist die erste Reaktion auf diesen Einbruch oft: „Alles halb so wild, war nur ein Reporting-Artefakt.“ Technisch stimmt das. Strategisch ist es aber ein Weckruf, den die wenigsten verstanden haben.
Inhalt
Was &num=100 eigentlich gekillt hat
Der Parameter war ein Effizienz-Hack. Ein Rank-Tracker konnte mit einem einzigen Request sehen, wo eine Domain in den Top 100 für ein Keyword stand. Ohne &num=100 muss dasselbe Tool jetzt zehn Anfragen absetzen, um an dieselben Daten zu kommen. Das heißt: das zehnfache an Kosten bei gleicher Datenmenge.
Semrush und Accuranker haben die Auswirkungen bereits öffentlich bestätigt, Search Engine Land hat den Verlauf dokumentiert. Die wichtigere Frage ist aber eine andere: Warum hat Google den Parameter gekippt?
Zwei Antworten passen zusammen.
Erstens will Google Scraper loswerden. Rank-Tracker belasten die Suche dauerhaft, ohne Anzeigen zu klicken. Mit dem Auffahren von AI Overviews und Infinite Scroll wird das für Google teurer, nicht billiger. &num=100 war der bequemste Weg für Scraper, viele Daten billig abzugreifen. Damit war dann Schluss.
Zweitens gibt es ein Problem, über das niemand offen redet: LLM-Anbieter, die Google-Ergebnisse als Trainingsdaten oder Grounding-Quelle genutzt haben, profitierten massiv von &num=100. Google hat mit der Abschaltung zwei Fliegen mit einer Klappe geschlagen.
Die Folge ist ein klares Signal von Google: Dieser Index ist nicht mehr frei abgreifbar. Wer Rankingdaten will, zahlt Google direkt oder bezahlt Drittanbieter, die wiederum Google bezahlen.
Warum Google-Only-Indexing für LLMs nicht reicht
Stellt sich eine Frage, die eigentlich Jahre überfällig ist: Welche LLMs haben den Googles Index genutzt?
Ehrlicherweise so gut wie keine. Google-Ergebnisse in ein LLM zu bekommen war schon vor &num=100 ein Krampf. Jetzt ist es viel teurer und damit eher unrentabel. ChatGPT, Perplexity, Claude, Le Chat – die holen ihre Web-Daten überall, nur nicht aus dem Google-Index.
Genau da beginnt der Blindspot, den ich bei einem Großteil aller SEO-Setups sehe. Die komplette Indexierungs-Strategie hängt an Google. Teams reichen Sitemaps in der Search Console ein. Neue Seiten landen in der Google Indexing API, falls überhaupt. Bing bleibt eine Randerscheinung, Brave, DuckDuckGo und Yandex ignorieren die meisten komplett.
Eine Google-zentrierte Indexierungs-Strategie reicht nicht mehr, wenn der eigene Content für ein LLM sichtbar sein soll. Seit September 2025 ist die Konsequenz nicht mehr theoretisch, sondern sehr gut messbar.
Welcher LLM nutzt welche Suchmaschine
Das wichtigste Bild zur Indexierungs-Debatte passt in eine Tabelle. Welche KI-Produkte stützen sich auf welche Suchmaschine, wenn sie eine Websuche starten?
| LLM / KI-Produkt | Suchquelle für Web-Grounding |
|---|---|
| ChatGPT | Microsoft Bing (primär) + direkte Publishing-Deals für News, Sport, Finanzen |
| Perplexity | Eigener Crawler, eigener Index |
| Claude (via web_search) | Backend nicht offiziell dokumentiert; Community nutzt Brave Search API |
| Gemini | Google Search (über Grounding API) |
| Meta AI | Microsoft Bing |
| Grok (xAI) | X/Twitter-Feed + eigene Real-Time-Quellen |
| Le Chat (Mistral) | Brave Search |
Bing trägt also ChatGPT und Meta AI. Das sind zusammen Hunderte Millionen Nutzer pro Monat. Wer in Bing nicht drin ist, ist für diesen Teil der LLM-Landschaft schwerer auffindbar. OpenAI bestätigt die Bing-Integration im eigenen Help Center. Im ChatGPT-Search-Announcement selbst ist nur von „third-party search providers“ die Rede.
Brave Search trägt zwei KI-Systeme, die deutlich technischere Nutzer anziehen. Claude über die offizielle Anthropic web_search Tool-API und Le Chat von Mistral. Das Backend des web_search-Tools dokumentiert Anthropic nicht offiziell – Community-Integrationen nutzen die Brave Search API, das Anthropic Help Center nennt für Image Search allerdings Bing. Brave ist kein Hipster-Projekt, Brave ist eine echte Anlaufstelle für den technischen B2B-Markt.
Eine Detailinfo wird im Alltag gerne unterschlagen: Laut einer Semrush-Analyse von 80 Millionen ChatGPT-Queries triggern nur rund 46% der Anfragen überhaupt eine Live-Websuche. Bei den anderen 54% antwortet das Modell aus Trainingsdaten. Wer sein Material nicht in die Trainingscorpora bekommt (Common Crawl, Webarchivierung, Publisher-Deals), bleibt generell unsichtbar, auch wenn Bing ihn perfekt indexiert hat.
Drei Indexe, drei Wege
Gehen wir durch, wie eine Seite in den drei Systemen konkret sichtbar wird. Google setzt auf ein offizielles, aber stark eingeschränktes System. Bing bietet die offenste Indexierungs-Infrastruktur im westlichen Web. Brave ist ein Sonderfall – kein Push-Weg, aber mit Hintertür via Bing.
Die klassischen Wege kennt jeder: XML-Sitemap in der Search Console einreichen, crawlbare interne Verlinkung, saubere Canonicals. Googles offizielle Indexing API ist auf zwei Content-Typen beschränkt, Jobpostings und Livestreams. Für alles andere verweigert Google den Zugriff offiziell. Inoffiziell klappt es mit der API aber natürlich diverse URLs darüber einzureichen.
In der Praxis gibt es Paid Indexer. Diese Dienste melden URLs über andere Kanäle an Google und erreichen damit in der Regel höhere Erfolgsquoten als das bloße Einreichen einer Sitemap. Ob sich das lohnt, ist eine Kosten-Nutzen-Entscheidung. Für eine junge Seite mit 20 wichtigen URLs kann es sich rechnen, für einen Shop mit 10.000 URLs eher nicht.
Bing
Bing ist technisch am offensichtlichsten. IndexNow ist der offene Push-Standard, den Microsoft, Yandex und einige kleinere Suchmaschinen gemeinsam unterstützen. Ein HTTP-Request schickt eine Liste von URLs mit einem API-Key an einen Endpoint, und die Suchmaschinen holen sich die Inhalte selbst. Der Standard ist kostenlos.
Zusätzlich bieten die Bing Webmaster Tools eine eigene API namens SubmitUrlBatch mit einem Kontingent von 10.000 URLs pro Tag pro Domain. Die Einrichtung dauert zehn Minuten. Wer Bing noch nicht als Indexierungs-Kanal nutzt, lässt hier was liegen.
Brave Search
Hier wird es interessant. Brave hat keinen Push-Mechanismus. Es gibt keine öffentliche Indexing-API, IndexNow wird nicht unterstützt, und das Web Discovery Project (der Brave-eigene Crawler-Mechanismus) arbeitet nur aus echten Brave-Browser-Sessions heraus. Content aktiv an Brave zu liefern ist schlicht nicht möglich.
Brave Search hat aber eine Hintertür. Der Brave-Index ist ein Hybrid: Ein Teil kommt aus dem Web Discovery Project, einen großen Teil lädt Brave direkt aus Bing nach. In der Praxis heißt das: Eine Seite landet mit wenigen Tagen Verzögerung auch in der Brave Search API, sobald Bing sie sauber erfasst hat. Und damit in Claude und Le Chat.
Letztlich steckt darin eine wichtige Erkenntnis: Bing-Indexierung ist Brave-Indexierung. Claude-Sichtbarkeit ist Bing-Sichtbarkeit.
Der Citation-Check als Audit-Tool
Bei einigen unserer Kunden haben wir in den letzten Wochen einen systematischen Check gemacht: Welche Brand-Citations (Pressemeldungen, Verzeichnis-Einträge, Profilseiten, Partner-Listings) sind eigentlich in welcher Suchmaschine indexiert? Gleicher URL-Satz, fünf Suchmaschinen – Google, Bing, Brave, Yandex, DuckDuckGo.
Das Bild war über alle geprüften Brands hinweg erschreckend einheitlich. Marken, die über Jahre in Google sauber aufgebaut waren, hatten in Bing und Brave deutliche Lücken. Mal fehlte eine Trustpilot-Seite, mal ein Branchenverzeichnis, mal ein Partner-Listing, mal eine LinkedIn-Company-Page. Zwischen 20 und 40% der Citations waren nur in einem oder zwei Suchmaschinen indexiert, nicht in allen fünf.
Was folgt daraus? Wer eine Brand in LLMs stark machen will, arbeitet nicht mehr nach dem Prinzip „Hauptsache in Google“. Eine Citation, eine Mention, eine externe Referenz, die irgendwo in einem Ökosystem hängt, sollte in allen relevanten Suchmaschinen indexiert sein. Sonst zitiert Claude eine andere Quelle, weil deine in Brave fehlt – obwohl sie in Google auf Seite 1 steht.
Vier Schritte, für mehr Sichtbarkeit in LLMs durch gezielte Indexierung
- IndexNow einbauen. Der größte Hebel mit dem geringsten Aufwand. Für WordPress, Shopify, Shopware und die meisten Headless-Setups gibt es fertige Pakete. Jede neue URL, jede Content-Änderung wird automatisch an Bing gemeldet (und damit mittelbar an Brave).
- Bing Webmaster Tools einrichten. Schnellster Sichtbarkeits-Boost in Bing überhaupt. Daten direkt aus der Google Search Console importieren, Sitemap einreichen, Crawl-Verhalten wöchentlich prüfen. Kostenlos, 20 Minuten Setup – ein Fire-and-Forget-Move mit hohem ROI.
- Citation-Audit über mehrere Suchmaschinen. Sammle die wichtigsten Brand-URLs (Pressemeldungen, Profile, Verzeichnisse, eigene Landingpages) und prüfe per site:-Query oder über eine SERP-API, wo sie indexiert sind. Das habe ich früher manuell in diversen Suchmaschinen gemacht. Mittlerweile geht das über diverse APIs direkt in Claude Code oder Codex.
- Indexierungs-Strategie: Diese Brand-URLs müssen jetzt nur noch in den jeweiligen Suchmaschinen-Index. Da helfen Indexer-Dienste oder das Verlinken auf der eigenen Seite, die dann wiederum bei Google und Bing zur Indexierung eingereicht wird. Deren Crawler folgen den Links und finden die bisher unerschlossenen URLs. Bei Brave lohnt das Nutzen des Brave Browsers inklusive der Brave Search. Ab und zu ein paar eigene Profile im Internet aufrufen und diese werden zügig in den Brave Search Index aufgenommen.
Google allein reicht nicht mehr
Die &num=100-Entfernung war kein Reporting-Bug, sondern ein Richtungswechsel. Google macht den eigenen Index teurer, schlechter abgreifbar und stärker auf zahlende Nutzer zugeschnitten. Eine Suchlandschaft, die sich gerade radikal umbaut – mit AI Overviews, Infinite Scroll und eigenen LLM-Features direkt in der SERP.
Für SEO heißt das mittlerweile ganz praktisch: Wer Inhalte für die neue Generation von Suchschnittstellen sichtbar machen will, nimmt Bing und Brave ernst. Das ist die Grundlage für LLM-Sichtbarkeit – keine Spielerei. Der Mehraufwand bleibt überschaubar, sobald die Indexierung einmal sauber aufgesetzt ist.
Der Gedanke bleibt letztlich derselbe, den gutes technisches SEO immer verfolgt hat. Mach Inhalte für die Maschinen auffindbar, die deine Zielgruppe benutzt.
Was ist der &num=100-Parameter und warum hat Google ihn entfernt?
&num=100 war ein URL-Parameter in der Google-Suche, der bis zu 100 Ergebnisse pro Seite ausgeliefert hat statt der üblichen zehn. Rank-Tracker haben den Parameter genutzt, um Suchrankings effizient zu erfassen. Zwischen dem 12. und 14. September 2025 hat Google die Unterstützung deaktiviert. Die offizielle Begründung fehlt bis heute. Plausibel sind zwei Motive: Scraper erschweren und LLM-Anbieter vom günstigen Google-Datenabgriff abschneiden.
Warum sind meine Google-Search-Console-Impressionen seit September 2025 eingebrochen?
Der Einbruch liegt an der &num=100-Entfernung. Rank-Tracker haben bei jedem Scrape Impressionen auf tiefen Positionen (50 bis 100) ausgelöst, die nie von echten Nutzern gesehen wurden. Diese Bot-Impressionen fallen jetzt weg. Die tatsächliche Sichtbarkeit einer Seite ist nicht gesunken – die Zahlen sind nur ehrlicher geworden. 87,7% der untersuchten Websites waren in der Locomotive-Analyse betroffen.
Welche Suchmaschine nutzt ChatGPT für die Websuche?
ChatGPT Search nutzt primär Microsoft Bing als Index. Für ausgewählte Kategorien (News, Sport, Finanzdaten) bezieht OpenAI zusätzlich Inhalte aus direkten Publishing-Deals. Nur etwa 46% der ChatGPT-Anfragen triggern überhaupt eine Live-Websuche – die restlichen 54% antworten aus dem Trainingskorpus.
Wie kann ich URLs bei Bing indexieren lassen?
Es gibt zwei Wege. IndexNow ist der offene Push-Standard, der mit einem einfachen HTTP-Request URLs an Bing, Yandex und weitere Suchmaschinen meldet. Zusätzlich bieten die Bing Webmaster Tools die SubmitUrlBatch-API mit einem Kontingent von 10.000 URLs pro Tag pro Domain. Beide Wege sind kostenlos und in zehn bis zwanzig Minuten eingerichtet.
Wie bekomme ich meine Seite in Brave Search?
Brave Search hat keine eigene Indexing-API und unterstützt IndexNow nicht. Der Brave-Index ist aber ein Hybrid aus dem eigenen Web Discovery Project und dem Bing-Index. In der Praxis heißt das: Wer sauber in Bing indexiert ist, landet mit wenigen Tagen Verzögerung auch in Brave Search – und damit in den Ergebnissen, die Claude und Le Chat bei Web-Anfragen ausliefern.
Welcher LLM nutzt welche Suchquelle?
ChatGPT und Meta AI nutzen Bing. Claude und Le Chat nutzen Brave Search. Perplexity hat einen eigenen Crawler und einen eigenen Index. Gemini nutzt Google Search. Grok nutzt den X/Twitter-Feed plus eigene Real-Time-Quellen. Daraus folgt: Wer in LLMs sichtbar sein will, braucht saubere Indexierung bei mindestens Bing und Google – und idealerweise auch Crawl-Zugang bei Perplexity über gute interne Verlinkung und hohe Content-Qualität.
Quellen
- Gargula, T. (Locomotive Agency, 15.09.2025): Google Removes &num=100 Parameter September 2025 – Analyse über 319 Properties, 87,7% Impression-Drop.
- Search Engine Land (18.09.2025, Danny Goodwin): 77% of sites lost keyword visibility after Google removed num=100.
- OpenAI (31.10.2024): Introducing ChatGPT search – Bing als primärer Such-Partner.
- Anthropic Docs: web_search Tool – Brave Search API als Backend.
- Perplexity Search API: Documentation – eigener Crawler, eigener Index.
- IndexNow: indexnow.org – Protokoll-Spezifikation, unterstützte Suchmaschinen.
- Microsoft Bing: IndexNow bei Bing – Bing-spezifische Implementierung.
- Brave Search API: brave.com/search/api – Basis für Claude und Mistral Le Chat.
- Google Indexing API: Developer Docs – Beschränkung auf Jobposting + Livestream.
- Eigene Kundenarbeit HECHT INS GEFECHT: Citation-Status-Checks über fünf Suchmaschinen, Q1 2026.


