SEO Begriffslexikon
Noindex (Meta-Tag)
Wichtigste Erkenntnisse
- Ultimative Löschung: Noindex entfernt Seiten zuverlässig aus dem Google-Index.
- Index-Hygiene: Nutze Noindex für AGB, Impressum oder Thin Content, um die Relevanz zu steigern.
- Relaunch-Killer: Ein vergessenes Noindex auf dem Live-Server kann die gesamte Sichtbarkeit vernichten.
Moin!
Wenn es einen Code-Schnipsel gibt, der das Schicksal eines Millionen-Euro Onlineshops oder einer Unternehmenswebsite innerhalb von Sekunden besiegeln kann, dann ist es dieses winzige Stück Text im <head>-Bereich einer HTML-Datei:
Jörgs SEO-Klartext (LinkedIn Insights)
"Suchmaschinen haben noch nie ein Produkt gekauft. Überzeuge den Menschen, der hinter der Tastatur sitzt."
<meta name="robots" content="noindex">
Das Noindex-Tag ist die unangefochtene Atombombe der Suchmaschinenoptimierung. Es bedeutet: “Lieber Googlebot, ganz gleich, wie toll diese Seite aussieht oder wie viele externe Homepages darauf verlinken – ich befehle hiermit, dass du dieses Dokument sofort aus deinen öffentlichen Google-Suchergebnissen löschst!”
Wie vernichtend dieser kleine Tag wirken kann, erlebe ich als SEO Freelancer für Berlin und bei meinen täglichen Website-Audits praktisch jeden Monat. Fehlt die Sichtbarkeit nach einem Website-Relaunch, ist das gefürchtete “Noindex-Problem” auf dem Live-Server zumeist der Hauptverdächtige aus den unzähligen 80-Prozent-SEO-Fehlern, die vermeidbar gewesen wären.
Warum braucht man “Noindex” überhaupt?
Wenn das Tag so gefährlich ist, wieso nutzt man es dann? Niemand will doch freiwillig Traffic verlieren?
Ganz im Gegenteil! Effektives SEO bedeutet nicht, “so viele URL-Seiten wie möglich” in Google zu pushen. Effektives SEO bedeutet Hyper-Relevanz. Die Pflege des Google Index ist wie die Gartenarbeit in einem Rosenbeet: Alles, was kein Blütentrieb (wertvoller Content) ist, musst du gnadenlos abschneiden (deindexieren), damit die Hauptpflanze die volle Energie (das Crawl-Budget und den E-E-A-T Trust) behält.
Typische Anwendungsfälle, bei denen du URLs unbedingt auf noindex setzen musst:
- Veraltete/Thin Content Seiten: Wenn du einen 10 Jahre alten Beitrag zu den “Trends 2014” ohne wirklichen Mehrwert hast, schwächt dieser die durchschnittliche Qualität deiner gesamten Domain. Wirf ihn aus dem Index!
- Dankesseiten (Thank-You Pages): Nach einem Kauf im Shop oder dem Ausfüllen eines Kontaktformulars landet der Besucher auf einer “Danke für Ihre Anfrage”. Taucht diese in der Google-Suche frei klickbar auf, kann das dein gesamtes Conversion-Tracking (Analytics/Ads) zerstören.
- AGB und Impressum: Sie sind rechtlich notwendig, bieten einem Suchenden aber zumeist keinen inhaltlichen SEO-Mehrwert für Dienstleistungen.
- Bilder-Tagging und irrelevante Paginierungen: Hast du in deinem WordPress tausende Seiten generiert, die nur eine Liste von Stichworten (Tags) zeigen, aber keinen Content? Noindex ist dein Freund, um die Indexverstopfung aufzulösen.
Der Relaunch-Tod: Die vergessene Sandbox
Die häufigste Ursache für einen kompletten Ranking-Absturz: Eine Agentur baut deine neue Website auf einem Testserver (einer Staging-Area / Sandbox). Um zu verhindern, dass Google diese geheime Testumgebung vorab liest, hakt der Webentwickler im WordPress-Backend 'Suchmaschinen davon abhalten, diese Website zu indexieren' an.
Noindex vs. Robots.txt: Der entscheidende Unterschied
Die absolut tödlichste Verwechslungsgefahr im Technical SEO liegt in der Vermengung von noindex und einem Disallow-Befehl in der robots.txt Datei.
Wie ich in meinem Glossar-Beitrag zum Unterschied zwischen Crawling und Indexing massiv unterstreiche, bewirken beide Konzepte fundamental unterschiedliche Prozesse.
Das Paradoxon: Niemals darfst du eine URL, die im Google-Index stört (z.B. eine kaputte PDF oder ein Thin-Content-Artikel), über die robots.txt sperren, um sie loszuwerden!
Sperrst du sie per robots.txt, verhinderst du, dass der Bot jemals wieder vorbeikommt, um zu erkennen, dass da mittlerweile eventuell “noindex” steht.
Willst du etwas chirurgisch deindexieren, musst du Google immer physisch heranlassen, das Crawlen erlauben, und rein über das HTTP-Tag oder das Meta-Tag noindex steuern.
Linkjuice bei Noindex?
Gibt eine Seite, die auf noindex steht, eigentlich noch Pagerank/Linkkraft weiter?
Ja, tut sie.
Oft kombiniert man das Tag als <meta name="robots" content="noindex, follow">.
Google soll diese spezielle Seite ignorieren, aber all die nützlichen Links, die sich im Textkörper befinden, verfolgen und den dahinterliegenden Linkjuice an die Hauptartikel weitervererben.
Dein nächster Schritt
Eine saubere, technisch verschlankte Domain rankt exponentiell leichter als ein riesiger, unkontrollierter Wasserkopf aus tausenden unnützen Tags und Paginierungen.
Hab keine Angst vor noindex – nutze es als Werkzeug für eine präzise, messerscharfe Content-Strategie.
Klasse statt Masse ist bei Google der Weg zum Erfolg.
ALOHA 🌻
Angst vor Ranking-Absturz?
Indexierst du die falschen Seiten? Mit einer klaren Strategie fokussieren wir deinen Linkjuice. Ich prüfe dein Setup mit SE Ranking und Rankscale.
Jetzt Index-Audit anfragenWie baue ich das noindex-Tag technisch korrekt ein?
Welche Seiten meiner Website sollte ich konkret auf noindex setzen?
Darf ich noindex und eine robots.txt-Blockierung gleichzeitig verwenden?
Verwandte Begriffe
Nichts mehr verpassen?
Folge mir auf LinkedIn für tägliche SEO-Nuggets und diskutiere mit anderen Experten.
LinkedIn-Profil besuchen →Verwandte Begriffe
Crawling vs. Indexing
Crawling und Indexing sind die zwei grundlegenden Backend-Prozesse jeder Suchmaschine. Ihre Unterscheidung ist existenziell zur Fehlerbehebung im SEO.
GlossarRobots.txt
Die robots.txt steuert, welche Crawler, Suchmaschinen und KI-Agenten auf welche Verzeichnisse deiner Website zugreifen dürfen. ALOHA! 🌻
GlossarSEO Audit
Ein SEO Audit ist der Gesundheitscheck für deine Website. Wir decken Fehler auf und bauen die Roadmap für dein Ranking.