Projekt

Allgemein

Aktionen

GX-Feature #54947

offen

Seiten die per Robots disallow fürs Crawling gesperrt werden sollten auch einen noindex Header senden um von der generellen Indexierung durch Crawler ausgeschlossen zu werden

Von Wilken Haase vor etwa 7 Jahren hinzugefügt. Vor mehr als 3 Jahren aktualisiert.

Status:
Anerkannt
Priorität:
Normal
Zugewiesen an:
-
Kategorie:
Core
Zielversion:
-
% erledigt:

0%

Geschätzter Aufwand:
Steps to reproduce:
Betroffene Versionen:
3.7.3.0
Release Notes Langtext:
Tags:

Checkliste 0/0

Aktionen #1

Von Wilken Haase vor etwa 7 Jahren aktualisiert

Alternativ wäre zu überlegen das Einfügen des noindex Headers über eine eigene Option möglich zu machen. Es ist zu prüfen, ob hierdurch ein Mehrwert entsteht, der einen passenden SEO Nutzen liefert.

Aktionen