Segnalo che la modifica che consente di sovrascrivere il meta robots alle pagine in realtà non funziona perchè invece che sovrascrivere, aggiunge.
Quindi, la regola da aggiungere al file theme.liquid:
{% if handle contains 'URL' %} {% endif %}
Non fa altro che creare un duplicato nel sorgente delle pagine, dove appariranno:
meta robots aggiunto dalla nostra regola
…e…
meta robots originale della pagina
Concludendo, nel sorgente della pagina appaiono due meta robots in conflitto:
Ricordo sempre che il noindex non impedisce la scansione della pagina, l’unico modo è “suggerire” l’azione con il DISALLOW dal robots.txt ma non è possibile farlo.
Questo significa solo una cosa: non è possibile fare SEO seriamente su Shopify perchè il crowler budget è compromesso.