GX-Feature #54947
offen
  
Seiten die per Robots disallow fürs Crawling gesperrt werden sollten auch einen noindex Header senden um von der generellen Indexierung durch Crawler ausgeschlossen zu werden
 
        
        Von Wilken Haase vor fast 8 Jahren hinzugefügt.
        Vor etwa 4 Jahren aktualisiert.
        
Betroffene Versionen:
3.7.3.0
 
   
 
 			 
	
	
	
		
 
  
  
    
    
    
    Alternativ wäre zu überlegen das Einfügen des noindex Headers über eine eigene Option möglich zu machen. Es ist zu prüfen, ob hierdurch ein Mehrwert entsteht, der einen passenden SEO Nutzen liefert. 
 
     
   
  
  
    
    
    
    
       - Status wurde von Gemeldet zu Feedback geändert
 
       - Zugewiesen an wurde auf Wilken Haase gesetzt
 
    
    
     
   
  
  
    
    
    
    
       - Status wurde von Feedback zu Anerkannt geändert
 
       - Zugewiesen an 
Wilken Haase wurde gelöscht 
    
    
     
   
  
  
    
    
    
    
       - Tracker wurde von GX-Bug zu GX-Feature geändert
 
    
    
     
   
  
  
    
    
    
    
       - Tags wurde auf SP-Candidate gesetzt
 
    
    
     
   
  
  
    
    
    
    
       - Zielversion 
133 wurde gelöscht 
    
    
     
   
  
 
  
  
 
Auch abrufbar als:  Atom
  PDF