GX-Feature #54947
offen
Seiten die per Robots disallow fürs Crawling gesperrt werden sollten auch einen noindex Header senden um von der generellen Indexierung durch Crawler ausgeschlossen zu werden
Von Wilken Haase vor mehr als 6 Jahren hinzugefügt.
Vor mehr als 2 Jahren aktualisiert.
Betroffene Versionen:
3.7.3.0
Alternativ wäre zu überlegen das Einfügen des noindex Headers über eine eigene Option möglich zu machen. Es ist zu prüfen, ob hierdurch ein Mehrwert entsteht, der einen passenden SEO Nutzen liefert.
- Status wurde von Gemeldet zu Feedback geändert
- Zugewiesen an wurde auf Wilken Haase gesetzt
- Status wurde von Feedback zu Anerkannt geändert
- Zugewiesen an
Wilken Haase wurde gelöscht
- Tracker wurde von GX-Bug zu GX-Feature geändert
- Tags wurde auf SP-Candidate gesetzt
- Zielversion
133 wurde gelöscht
Auch abrufbar als: Atom
PDF