Zurück zum Glossar
5 Min. Lesezeit

SEO Begriffslexikon

Noindex (Meta-Tag)

Noindex (Meta-Tag)

Wichtigste Erkenntnisse

  • Ultimative Löschung: Noindex entfernt Seiten zuverlässig aus dem Google-Index.
  • Index-Hygiene: Nutze Noindex für AGB, Impressum oder Thin Content, um die Relevanz zu steigern.
  • Relaunch-Killer: Ein vergessenes Noindex auf dem Live-Server kann die gesamte Sichtbarkeit vernichten.

Moin!

Wenn es einen Code-Schnipsel gibt, der das Schicksal eines Millionen-Euro Onlineshops oder einer Unternehmenswebsite innerhalb von Sekunden besiegeln kann, dann ist es dieses winzige Stück Text im <head>-Bereich einer HTML-Datei:

Jörgs SEO-Klartext (LinkedIn Insights)

"Suchmaschinen haben noch nie ein Produkt gekauft. Überzeuge den Menschen, der hinter der Tastatur sitzt."

<meta name="robots" content="noindex">

Das Noindex-Tag ist die unangefochtene Atombombe der Suchmaschinenoptimierung. Es bedeutet: “Lieber Googlebot, ganz gleich, wie toll diese Seite aussieht oder wie viele externe Homepages darauf verlinken – ich befehle hiermit, dass du dieses Dokument sofort aus deinen öffentlichen Google-Suchergebnissen löschst!”

Wie vernichtend dieser kleine Tag wirken kann, erlebe ich als SEO Freelancer für Berlin und bei meinen täglichen Website-Audits praktisch jeden Monat. Fehlt die Sichtbarkeit nach einem Website-Relaunch, ist das gefürchtete “Noindex-Problem” auf dem Live-Server zumeist der Hauptverdächtige aus den unzähligen 80-Prozent-SEO-Fehlern, die vermeidbar gewesen wären.

Warum braucht man “Noindex” überhaupt?

Wenn das Tag so gefährlich ist, wieso nutzt man es dann? Niemand will doch freiwillig Traffic verlieren?

Ganz im Gegenteil! Effektives SEO bedeutet nicht, “so viele URL-Seiten wie möglich” in Google zu pushen. Effektives SEO bedeutet Hyper-Relevanz. Die Pflege des Google Index ist wie die Gartenarbeit in einem Rosenbeet: Alles, was kein Blütentrieb (wertvoller Content) ist, musst du gnadenlos abschneiden (deindexieren), damit die Hauptpflanze die volle Energie (das Crawl-Budget und den E-E-A-T Trust) behält.

Typische Anwendungsfälle, bei denen du URLs unbedingt auf noindex setzen musst:

  1. Veraltete/Thin Content Seiten: Wenn du einen 10 Jahre alten Beitrag zu den “Trends 2014” ohne wirklichen Mehrwert hast, schwächt dieser die durchschnittliche Qualität deiner gesamten Domain. Wirf ihn aus dem Index!
  2. Dankesseiten (Thank-You Pages): Nach einem Kauf im Shop oder dem Ausfüllen eines Kontaktformulars landet der Besucher auf einer “Danke für Ihre Anfrage”. Taucht diese in der Google-Suche frei klickbar auf, kann das dein gesamtes Conversion-Tracking (Analytics/Ads) zerstören.
  3. AGB und Impressum: Sie sind rechtlich notwendig, bieten einem Suchenden aber zumeist keinen inhaltlichen SEO-Mehrwert für Dienstleistungen.
  4. Bilder-Tagging und irrelevante Paginierungen: Hast du in deinem WordPress tausende Seiten generiert, die nur eine Liste von Stichworten (Tags) zeigen, aber keinen Content? Noindex ist dein Freund, um die Indexverstopfung aufzulösen.

Der Relaunch-Tod: Die vergessene Sandbox

Die häufigste Ursache für einen kompletten Ranking-Absturz: Eine Agentur baut deine neue Website auf einem Testserver (einer Staging-Area / Sandbox). Um zu verhindern, dass Google diese geheime Testumgebung vorab liest, hakt der Webentwickler im WordPress-Backend 'Suchmaschinen davon abhalten, diese Website zu indexieren' an.

Der Kardinalfehler: Beim Live-Gang der Seite an einem späten Freitagabend wird vergessen, dieses kleine Häkchen wieder zu entfernen. Der gesamte Live-Server funkt nun an Google ein hartes `noindex`. Binnen 7 Tagen löscht Google alle Top 1 Positionen unwiderruflich aus dem Netz. Der Schaden ist oft extrem massiv!

Noindex vs. Robots.txt: Der entscheidende Unterschied

Die absolut tödlichste Verwechslungsgefahr im Technical SEO liegt in der Vermengung von noindex und einem Disallow-Befehl in der robots.txt Datei. Wie ich in meinem Glossar-Beitrag zum Unterschied zwischen Crawling und Indexing massiv unterstreiche, bewirken beide Konzepte fundamental unterschiedliche Prozesse.

Das Paradoxon: Niemals darfst du eine URL, die im Google-Index stört (z.B. eine kaputte PDF oder ein Thin-Content-Artikel), über die robots.txt sperren, um sie loszuwerden! Sperrst du sie per robots.txt, verhinderst du, dass der Bot jemals wieder vorbeikommt, um zu erkennen, dass da mittlerweile eventuell “noindex” steht.

Willst du etwas chirurgisch deindexieren, musst du Google immer physisch heranlassen, das Crawlen erlauben, und rein über das HTTP-Tag oder das Meta-Tag noindex steuern.

Linkjuice bei Noindex?

Gibt eine Seite, die auf noindex steht, eigentlich noch Pagerank/Linkkraft weiter? Ja, tut sie. Oft kombiniert man das Tag als <meta name="robots" content="noindex, follow">. Google soll diese spezielle Seite ignorieren, aber all die nützlichen Links, die sich im Textkörper befinden, verfolgen und den dahinterliegenden Linkjuice an die Hauptartikel weitervererben.

Dein nächster Schritt

Eine saubere, technisch verschlankte Domain rankt exponentiell leichter als ein riesiger, unkontrollierter Wasserkopf aus tausenden unnützen Tags und Paginierungen. Hab keine Angst vor noindex – nutze es als Werkzeug für eine präzise, messerscharfe Content-Strategie. Klasse statt Masse ist bei Google der Weg zum Erfolg.

ALOHA 🌻


Angst vor Ranking-Absturz?

Indexierst du die falschen Seiten? Mit einer klaren Strategie fokussieren wir deinen Linkjuice. Ich prüfe dein Setup mit SE Ranking und Rankscale.

Jetzt Index-Audit anfragen
? Häufig gestellte Fragen (FAQ)
Wie baue ich das noindex-Tag technisch korrekt ein?
Die gängigste Methode ist ein Meta-Tag im HTML-Head-Bereich: . Alternativ (z.B. für PDFs) kann man den X-Robots-Tag als HTTP-Header setzen. In WordPress erledigen das Plugins wie Yoast oder RankMath per Klick. Bei meinen eigenen Astro-Projekten steuere ich das direkt im Code – so habe ich volle Kontrolle und keine Plugin-Abhängigkeit.
Welche Seiten meiner Website sollte ich konkret auf noindex setzen?
Alles, was für einen Google-Nutzer keinen Mehrwert bietet: Dankesseiten (Thank-You-Pages), die nach Formulareingabe erscheinen, AGB/Impressum (rechtlich nötig, aber kein SEO-Wert), interne Suchergebnisseiten, Tag-Archive ohne Content, und veraltete 'Trend'-Artikel, die nur noch peinlich sind. ALOHA 🌻-Regel: Wenn du dich schämen würdest, einem Kunden die Seite zu zeigen – noindex!
Darf ich noindex und eine robots.txt-Blockierung gleichzeitig verwenden?
Diese Kombi ist der gefährlichste Fehler im technischen SEO! Wenn du eine URL per robots.txt sperrst, kann der Googlebot sie nicht mehr crawlen. Das bedeutet: Er sieht dein noindex-Tag gar nicht. Die Seite bleibt also als 'Zombie' im Index. Die sichere Methode: Crawling erlauben (keine Disallow-Regel) und NUR über das Meta-Tag noindex steuern. So kann Google die Seite lesen und den Befehl 'bitte raus aus dem Index' auch tatsächlich ausführen.

Nichts mehr verpassen?

Folge mir auf LinkedIn für tägliche SEO-Nuggets und diskutiere mit anderen Experten.

LinkedIn-Profil besuchen →
Jörg Zimmer - SEO & SEA Experte

Über den Autor: Jörg Zimmer

Jörg Zimmer ist SEO- und SEA-Freelancer aus Berlin Spandau mit über 24 Jahren Erfahrung ("Digitaler Dinosaurier"). Er hilft Unternehmen, den "Pfusch am Bau" zu beenden, durch Tacheles-Beratung sichtbar zu bleiben und Ranking-Verluste in Umsätze zu verwandeln.