Wenn ich eine URL von meiner Website in die Google-Suche eingebe, erhalte ich diese URL zurück, jedoch mit einer hinzugefügten Abfragezeichenfolge in den Ergebnissen. Wenn ich zum Beispiel suche https://example.com/blog/blog/2013/02
, wird es in den Suchergebnissen mit den Parametern as angezeigt https://example.com/blog/blog/2013/02?limit=200
.
Ich habe die Parameter in der robots.txt- Datei als nicht zugelassen Disallow: /*?
. Jetzt zeigt das Google-Suchergebnis die Nachricht als
Eine Beschreibung für dieses Ergebnis ist aufgrund der robots.txt-Datei dieser Site nicht verfügbar. Weitere Informationen.
Wie kann ich vermeiden, dass diese Abfragezeichenfolge in der URL hinzugefügt wird?
google-search-console
google-search
Alamelu
quelle
quelle
Antworten:
Robots.txt verhindert nur, dass Bots die nicht zugelassenen URLs crawlen und nicht indizieren. Wenn die nicht zugelassenen URLs extern oder intern von einer Seite aus verlinkt sind, die nicht nicht zulässig ist, werden sie im Index mit dem von Ihnen zitierten Snippet-Text angezeigt.
Wenn Sie sie vollständig aus dem Index ausschließen möchten, ist die beste Option wahrscheinlich das kanonische Linkelement:
<head> <link rel="canonical" href="http://www.example.com"> </head>
In dem von Ihnen angegebenen Beispiel
https://example.com/blog/blog/2013/02?limit=200
würde die Seite Folgendes enthalten:<head> <link rel="canonical" href="https://example.com/blog/blog/2013/02"> </head>
Dies setzt voraus, dass HTTPS Ihr bevorzugtes Protokoll ist. Wenn dies nicht der Fall ist, sollten Sie dies über die 301-Umleitung normalisieren.
Der Vorteil dieses Ansatzes besteht darin, dass Sie die Webmaster-Tools für Suchmaschinen nicht konfigurieren müssen.
Verwenden von Webmaster-Tools
Eine Alternative ist die Verwendung von URL-Parameterfiltern in den Google- und Bing-Webmaster-Tools. In Google finden Sie es unter Crawl> URL-Parameterfilter .
In der Regel wird diese Seite bereits mit Parametern gefüllt, die der Crawler erkannt hat. Sie können diese jedoch auch manuell angeben.
Angenommen, Sie
?limit=200
steuern, wie viele Elemente auf einer Seite angezeigt werden, konfigurieren Sie sie in Google WMT wie folgt:Wählen Sie "Ja: Seiteninhalt ändert, neu ordnet oder einschränkt"
Wählen Sie "Narrows"
Wählen Sie "Keine URLs"
quelle
?limit=200
es von der Site doch nicht verwendet wird, daher wirkt sich dies wahrscheinlich auf die Regeln für URL-Parameter aus, die Sie in GWT festlegen möchten.Okay. Zunächst werde die los
Disallow: /*?
in der robots.txt - Datei. Dies verursacht die Nachricht von Google. Google sagt, dass es überhaupt keinen Zugriff auf Ihre Website hat.Versuchen Sie in Ihrer .htaccess-Datei Folgendes:
Ich habe dies nicht getestet, aber ich bin sicher, dass der reguläre Ausdruck (regulärer Ausdruck) korrekt ist. Ich habe das hier zumindest unter einem anderen Szenario getestet. Versuchen Sie dies und stellen Sie mehrere Anfragen an Ihre Site, indem Sie eine Vielzahl von
?limit=200
am Ende der Anfrage hinzugefügten verwenden, um festzustellen, ob eine Weiterleitung zu einer URL ohne diese vorhanden ist.Ich sage immer noch, dass der Parameter keine wirkliche Wirkung haben und keinen Schaden anrichten sollte. Es sollte in Ordnung sein, es einfach zu verlassen.
quelle
$1
sollte%1
in derRewriteRule
Substitution sein, um sich auf das inRewriteCond
Klammern gesetzte Untermuster zu beziehen (im Gegensatz zumRewriteRule
Muster). (+1)Sie sind sich nicht sicher, woher der Abfrageparameter stammt, aber es gibt eine Möglichkeit, ihn in Google Analytics zu entfernen. Siehe https://support.google.com/analytics/answer/1010249?hl=de , Thema "URL-Abfrageparameter ausschließen".
quelle