Viele Shop Elemente und Pages werden absichtlich durch die robots.txt blockiert, wie z. B. die Rechtstexte, und dies ist lediglich ein “Alarm”, dass Google dies entdeckt hat. Die robots.txt dient der Verbesserung des SEO des Shops, und diese Datei kann in keiner Weise verändert werden.
Obwohl du den Inhalt der Datei robots.txt in deinem Shop nicht bearbeiten kannst, ist es gut wenn man den Inhalt weiß, den die robots.txt von Suchmaschinen blockiert. Beispiele sind der Warenkorb und die Checkout-Seite, da diese die Suchergebnisse der Homepage oder deiner Produkte reduzieren würden. In deinem Beispiel handelt es sich um Pages die eigentlich für die Google Suchergebnisse irrelevant sein würden da Google sich auf das wesentliche konzentriert, wie Produkte. Pages sind meist nur zur Info.
Nicht vergessen, dass die Standard Einstellungen der Google Search Console und der robots.txt so eingerichtet sind, dass die Produkt- und Shop Suchergebnisse auf Google am optimalsten sind.
In unserer Anleitung dazu kannst du weitere Einstellungen vornehmen um dein SEO noch besser zu machen.
EINE Lösung ist natürlich, die einzelnen Seiten in der Google-Search-Console MANUELL einzugeben, prüfen zu lassen und um Indexierung zu bitten.
Und … es funktioniert innerhalb weniger Stunden und die jeweilige Seite wird auf Google auch per Suche gefunden.
Aber DAS kann ja wohl nicht die Lösung sein.
Es muss (müsste) doch eine Möglichkeit geben, im Code von einem Shopify-Theme eine Änderung vorzunehmen, damit “Pages”-Seiten von allein von Google indexiert werden.
Weiß da jemand etwas und würde es mir und der Gemeinschaft verreaten ?
Hmmm, ja die einzelnen Seiten in der GSC eintragen zu müssen ist nicht Sinn der Sache, da hast du recht Tom.
Dass deine Pages nicht indexiert wurden hat irgendwie einen anderen Grund den wir vielleicht übersehen haben und das kann verschiedene Gründe haben. Hast du z. B. den Shop und die Pages alle selber erstellt oder haben da auch andere Entwickler mitgearbeitet? Hast du irgendwelche App die hier irgendwie mit agiert?
Es kann z. B. sein, dass ein metafield wie namespace = “seo”, key=“hidden”, value=1 einen “noindex” verursacht.
Um das zu analysieren, wäre es vielleicht interessant, wenn du die GSC Einstellungen zum Original zurücksetzen würdest, zu dem Zeitpunkt, wo deine Pages nicht indexiert wurden (d. h. die neuen Einträge in der GSC nochmal zurücksetzen). Schicke uns dann den ganzen Sachverhalt der reproduzierbar ist per E-Mail, so dass ich das mit unseren Techniker anschauen kann.
Ansonsten poste deine Frage auch hier auf Englisch denn da gibt es ein paar Experten die sich damit auskennen.