Projekt

Allgemein

Profil

Aktionen

GX-Task #71081

geschlossen

Disallow: /*?srsltid in der robots.txt hinzufügen | Add "Disallow: /*?srsltid" in robots.txt

Von Till Tepelmann vor 3 Monaten hinzugefügt. Vor 5 Tagen aktualisiert.

Status:
Erledigt
Priorität:
Normal
Zugewiesen an:
-
Kategorie:
SEO
Zielversion:
% erledigt:

0%

Steps to reproduce:
Betroffene Versionen:
Unbestimmt
Release Notes Langtext:

robots.txt um Disallow: /*?srsltid erweitert, um doppelten Content bei Google zu vermeiden

Tags:

Beschreibung

Um das Erzeugen von doppelten Content bei Google zu verhindern, sollten wir den Parameter Disallow: /*?srsltid in die robots.txt aufnehmen.

Ein Bug von Google sorgt dafür, dass Links im Merchant Center mit der ID versehen werden, was doppelten Content und dadurch Fehler in der Google Search Console erzeugt. Wie https://www.seroundtable.com/google-search-srsltid-url-parameters-37875.html erklärt,existiert der seit 2022, wird nicht gefixt und zu dem Anfragen auch nicht beantwortet werden. Bis das also gefixt ist, verhindert dieser Workaround den doppelten Content.


To prevent Google from creating duplicate content, we should include the parameter Disallow: /*?srsltid in robots.txt.

A Google-Bug causes links in the merchant center to be appended by the ID. This causes duplicate content to be generated which in turn causes bugs in the google search console. According to https://www.seroundtable.com/google-search-srsltid-url-parameters-37875.html this bug exists since 2022 and google has neither fixed it nor do they answer requests in regards to this bug. This workaround prevents the duplicate content and thus the bug.


Aktionen

Auch abrufbar als: Atom PDF