Projekt

Allgemein

Profil

Aktionen

GX-Feature #54947

offen

Seiten die per Robots disallow fürs Crawling gesperrt werden sollten auch einen noindex Header senden um von der generellen Indexierung durch Crawler ausgeschlossen zu werden

Von Wilken Haase vor etwa 6 Jahren hinzugefügt. Vor mehr als 2 Jahren aktualisiert.

Status:
Anerkannt
Priorität:
Normal
Zugewiesen an:
-
Kategorie:
Core
Zielversion:
-
% erledigt:

0%

Geschätzter Aufwand:
Steps to reproduce:
Betroffene Versionen:
3.7.3.0
Release Notes Langtext:
Tags:

Aktionen #1

Von Wilken Haase vor etwa 6 Jahren aktualisiert

Alternativ wäre zu überlegen das Einfügen des noindex Headers über eine eigene Option möglich zu machen. Es ist zu prüfen, ob hierdurch ein Mehrwert entsteht, der einen passenden SEO Nutzen liefert.

Aktionen #2

Von Ulrich Wenk vor fast 5 Jahren aktualisiert

  • Status wurde von Gemeldet zu Feedback geändert
  • Zugewiesen an wurde auf Wilken Haase gesetzt
Aktionen #3

Von Ulrich Wenk vor mehr als 4 Jahren aktualisiert

  • Status wurde von Feedback zu Anerkannt geändert
  • Zugewiesen an Wilken Haase wurde gelöscht
Aktionen #4

Von Ahmed Hamouda vor mehr als 3 Jahren aktualisiert

  • Tracker wurde von GX-Bug zu GX-Feature geändert
Aktionen #5

Von Moritz Bunjes vor mehr als 2 Jahren aktualisiert

  • Tags wurde auf SP-Candidate gesetzt
Aktionen #6

Von Moritz Bunjes vor mehr als 2 Jahren aktualisiert

  • Zielversion 133 wurde gelöscht
Aktionen

Auch abrufbar als: Atom PDF