Seitenindexierung - Durch robots.txt-Datei blockiert / Fast 21000 Seiten mit asiatischen Schriften

Topic summary

Ein Nutzer berichtet über ein zunehmendes Problem mit Seiten, die durch die robots.txt-Datei blockiert werden – insgesamt fast 21.000 Seiten mit asiatischen Schriftzeichen.

Hauptprobleme:

  • Alle 3-4 Tage tauchen neue blockierte Seiten auf, meist Suchseiten mit asiatischen Zeichen
  • Bisherige Maßnahmen (Backlink-Analyse, Disavow-Tool) waren erfolglos
  • Die Sichtbarkeit der Website leidet unter diesem Problem

Erste Rückmeldung:
Ein anderer Nutzer sieht die Blockierung als korrekt an und hinterfragt, warum Suchergebnisseiten, Tag- und Herstellerseiten überhaupt indexiert werden sollten. Diese würden nur zu Canonical-Fehlern führen und das Ranking negativ beeinflussen.

Status: Die Diskussion ist noch offen, eine konkrete Lösung wurde nicht präsentiert. Screenshots zeigen die betroffenen Seiten in der Google Search Console.

Summarized with AI on October 24. AI used: claude-sonnet-4-5-20250929.

Hallo,

seit einiger Zeit mehren sich bei uns Seiten, die durch robot.txt Datei blockiert werden. Es handelt sich meistens, um Seiten, die auf Search mit asiatischen Schriften verweisen (siehe Bilder):

Wir haben bisher über Backlink-Analyse und Disavow-Tool versucht, diese negativen Links im Griff zu bekommen, aber vergeblich. Es kommen alle 3-4 Tage mehrere Seiten wieder rein.

Hier ein Bild, das eines der Links anzeigt, die von Google nicht gefunden werden:

Ich hoffe, jemand hat eine Idee, wie wir das Problem im Griff bekommen und dadurch die Seite in der Sichtbarkeit wieder besser steht.

DANKE

Soweit sieht alles Korrekt aus.

Weshalb möchtest du die Suchergebnisse, Suche nach Tags, Hersteller etc. mit indexiert haben? Diese würden nur als Canonialfehler stehenbleiben und deine Seite wird von den Suchmaschinen nach unten gerankt werden.