Ich habe die folgenden drei Domänen:
example1.com
(Nicht verbieten)example2.com
(Nicht verbieten)example3.com
(ermöglichen)
Alle Domains verweisen auf denselben Ordner public_html
.
Wie kann ich verhindern, dass Suchmaschinen Seiten in den ersten beiden Domains crawlen?
seo
robots.txt
Saurabh Bajpai
quelle
quelle
public_html
?Antworten:
Sie müssen bedingt eine andere robots.txt-Datei bereitstellen, je nachdem, auf welche Domäne / welchen Host zugegriffen wurde. Unter Apache können Sie dies in .htaccess tun:
Dies ist spezifisch für Ihr Beispiel, in dem robots.txt (
robots-disallow.txt
) für # 1 und # 2 "nicht zugelassen" wird. Andernfalls wird die Anforderung durchfallen und Ihre regulärerobots.txt
Datei für # 3 bereitstellen, was "erlaubt".quelle
Ich arbeite an einer ähnlichen Website, auf der ich dies mit PHP verwalte.
In meinem .htaccess habe ich eine Zeilenlesung:
In robots.php habe ich folgendes:
Auf diese Weise können Sie eine einzelne Datei erstellen, in der Sie Ihre robots.txt für jede einzelne Domain anpassen können.
quelle
Da Sie Suchmaschinen nur eine Domain erlauben, können Ihre RewriteRules einfacher gestaltet werden. Verwenden Sie einfach dies:
Im Ordner public_html müssen Sie zwei Dateien erstellen. robots.txt und robots-allow.txt
In robots.txt müssen Sie Folgendes hinzufügen:
Ersetzen Sie die Suchmaschine durch Google oder eine andere Engine, die Sie blockieren möchten. Wiederholen Sie die obigen Zeilen, wenn Sie weitere Suchmaschinen hinzufügen möchten. Dann wird sich herausstellen, dass Ihre robots.txt ungefähr so aussieht:
In robots-allow.txt können Sie es dann als leere Datei belassen oder die Durchforstungsverzögerung für alle Suchmaschinen wie folgt anpassen:
Die Zahl nach der Durchforstungsverzögerung gibt die minimale Wartezeit in Sekunden zwischen Anforderungen an den Server von demselben Benutzeragenten an.
quelle