Projekt

Allgemein

Profil

Aktionen

GX-Feature #54947

offen

Seiten die per Robots disallow fürs Crawling gesperrt werden sollten auch einen noindex Header senden um von der generellen Indexierung durch Crawler ausgeschlossen zu werden

Von Wilken Haase vor fast 7 Jahren hinzugefügt. Vor etwa 3 Jahren aktualisiert.

Status:
Anerkannt
Priorität:
Normal
Zugewiesen an:
-
Kategorie:
Core
Zielversion:
-
% erledigt:

0%

Geschätzter Aufwand:
Steps to reproduce:
Betroffene Versionen:
3.7.3.0
Release Notes Langtext:
Tags:

Aktionen

Auch abrufbar als: Atom PDF