Aktionen
GX-Feature #54947
offenSeiten die per Robots disallow fürs Crawling gesperrt werden sollten auch einen noindex Header senden um von der generellen Indexierung durch Crawler ausgeschlossen zu werden
Status:
Anerkannt
Priorität:
Normal
Zugewiesen an:
-
Kategorie:
Core
Zielversion:
-
% erledigt:
0%
Geschätzter Aufwand:
Steps to reproduce:
Betroffene Versionen:
3.7.3.0
Release Notes Langtext:
Checkliste 0/0
Aktionen
#1
Von Wilken Haase vor etwa 7 Jahren aktualisiert
Alternativ wäre zu überlegen das Einfügen des noindex Headers über eine eigene Option möglich zu machen. Es ist zu prüfen, ob hierdurch ein Mehrwert entsteht, der einen passenden SEO Nutzen liefert.
Aktionen