Daher haben wir auf allen unseren Websites, auf denen keine Suche durchgeführt wird, eine robots.txt-Datei angewendet (siehe So schließen Sie eine Website aus den Google-Suchergebnissen in Echtzeit aus? Oder eine andere ähnliche Frage).
Wenn die Suchbegriffe jedoch spezifisch genug sind, kann die Domain selbst über die Ergebnisse gefunden werden. Ein Beispiel hierfür finden Sie hier . Wie Sie dem Link entnehmen können, befindet sich die Domain selbst (der Inhalt wird nicht zwischengespeichert, aber die Domain wird aufgelistet). Zusätzlich sollte eine Suche mit site:hyundaidigitalmarketing.com
3 Ergebnissen durchgeführt werden. Das Überprüfen von Backlinks bietet auch einige, aber ich kann sie offensichtlich nicht verhindern (das Verknüpfen ist im Kontext zulässig) oder steuern, wie diese behandelt werden (ich kann den Host nicht anweisen, nofollow, noindex hinzuzufügen).
Jetzt weiß ich, dass dies ein schwerwiegender Randfall ist, aber meine Firmenkunden tun genau dies. Tatsächlich sind unsere Domains ziemlich gut, sodass selbst scheinbar willkürliche Suchanfragen relevante Ergebnisse liefern. Jetzt muss ich einen Bericht darüber schreiben, wie / warum dies geschieht.
Also wende ich mich an das wunderbare Stack Exchange-Netzwerk, um zu verstehen, was mir fehlt oder was passiert. Links zu Branchenartikeln sind äußerst hilfreich, aber alles, was Sie geben können, ist offensichtlich großartig. Ich beabsichtige, Kopfgelder so gut wie möglich anzubieten, um dies zu einer Antwort zu machen, an die ich mich in Zukunft wenden kann.
Bearbeiten: Ich habe ein Kopfgeld für diese Frage eröffnet, in der Hoffnung, weitere Antworten darauf zu erhalten. Ich habe auch die Ergebnisse meiner eigenen Forschung unten zur Verfügung gestellt.
quelle
Ich denke, Matt Cutts hat darüber gesprochen. Wenn mein Gedächtnis korrekt ist, hat es mit dem Verknüpfen zu tun. Hier ist mehr: http://www.google.com/support/forum/p/Webmasters/thread?tid=2720810fa226e9c8&hl=de
Sie können sie mit dem Google-Entfernungsprogramm entfernen.
quelle
noindex, follow
, dass jeder PageRank über möglicherweise auftretende Backlinks verteilt wird.site:hyundaidigitalmarketing.com
oder nach den Begriffen durchhyundai digital marketing
, und die Domain selbst wird weiterhin als erstes und bestes Ergebnis angezeigt. Ich muss das verhindern.links:hyundaidigitalmarketing.com
zeigt Backlinks. Ich kann die Formatierungs-Backlinks offensichtlich nicht verhindern oder kontrollieren UND sie sind möglicherweise gültig. Wenn dies durch das Verknüpfen mit der Site verursacht wird, muss ich verstehen, wie / warum, damit ich dies meinen Vorgesetzten erklären kann. Ich hoffe das erklärt meine Frage etwas besser.Aufgrund meiner Recherchen zu diesem Thema habe ich festgestellt, dass es keinen 100% garantierten Weg gibt, um das Indizieren und Zwischenspeichern von Daten zu verhindern, aber Sie können verdammt nahe kommen (vorausgesetzt, Sie möchten mit erhöhtem Bot-Verkehr umgehen). So habe ich die Informationen interpretiert.
Man könnte meinen, dass die robots.txt-Datei verwendet wird, um Roboterinformationen auf der gesamten Website zu definieren, und Meta-Tags für seitenspezifische Details verwendet werden. Ich denke, der Geist hinter den 2 ist genau das, aber dies ist in der Praxis nicht der Fall.
Erstellen Sie keine robots.txt- Datei
Dies funktioniert mit allen wichtigen Suchanbietern, um zu verhindern, dass Inhalte auf dem SERP angezeigt werden, verhindert jedoch nicht die Indizierung. Dies verhindert auch, dass Bots Ihre Seiten crawlen, sodass auch Roboter-Meta-Tags (siehe unten) ignoriert werden. Aus diesem Grund können Sie die 2 nicht zusammen verwenden. Wenn Sie die Indizierung verhindern möchten, sollten Sie daher keine robots.txt-Datei verwenden.
Randnotiz: Google unterstützt die Verwendung von
Noindex: /
in robots.txt, aber es ist nicht dokumentiert (wer weiß, wann es kaputt geht) und unbekannt, ob dies für andere funktioniert.Verwenden Sie HTTP-Header oder HTML-META-Tags, um alles zu verhindern
Im Gegensatz zur robots.txt-Datei wird das Robots-Meta-Tag (und der HTTP-Header) weitgehend unterstützt und ist überraschenderweise funktionsreich. Es ist so konzipiert, dass es auf jeder Seite festgelegt wird. Die kürzlich erfolgte Übernahme des
X-Robots-Tag
Headers erleichtert jedoch das Festlegen auf der gesamten Website. Der einzige Nachteil bei dieser Methode ist, dass Bots Ihre Site crawlen. Dies kann durch die Verwendung eingeschränkt werdennofollow
, aber nicht alle Bots respektieren dies wirklichnofollow
.Ich habe eine Menge Informationen in diesem veralteten Blog-Beitrag gefunden . Die ursprüngliche Version war 2007, aber da viele der Informationen seitdem neuere Funktionen sind, scheint sie regelmäßig aktualisiert zu werden.
Zusammenfassend sollten Sie einen HTTP-Header von senden
X-Robots-Tag: noindex,nofollow,noodp,noydir
. Hier ist die Aufschlüsselung des Grundes:nofollow
sollte die Anzahl der auf Ihrer Website gecrawlten Seiten begrenzen und den Bot-Verkehr gering halten. *noindex
weist Engines an, die Seite nicht zu indizieren.noindex
dies ausreichen könnte. Ich habe jedoch festgestellt, dassnoindex
Ihre Website möglicherweise indiziert wird , obwohl andere Websites darauf verlinken. Der beste Weg, um gemeinsame Site-Links von Y zu verhindern! Directory (noydir
) und Open Directory (noodp
).Dies funktioniert in 99% der Fälle. Beachten Sie jedoch, dass es in einigen Fällen immer noch möglich ist , von einigen Anbietern indiziert zu werden. Google behauptet, voll und ganz zu respektieren
noindex
, aber ich habe meinen Verdacht.Wenn Sie indiziert werden oder bereits indiziert wurden, können Sie Ihre Informationen nur deindizieren, indem Sie den verschiedenen Methoden jedes Anbieters folgen, um die Entfernung der Site / URL zu beantragen. Dies bedeutet natürlich, dass Sie die Websites / Seiten wahrscheinlich mit Google Alerts überwachen möchten (danke @Joe).
quelle
Ich denke, Ihr grundlegendes Problem sind die Backlinks zur Website, da diese den Suchmaschinen einen Einstiegspunkt in die Website geben und sie darauf aufmerksam machen. Obwohl sie keine Beschreibung für die Site anzeigen, wird möglicherweise die URL angezeigt, wenn sie der Meinung sind, dass sie am besten zum Ergebnis passt.
Lesen Sie diesen Artikel, der mit dem von @joe geposteten Artikel verlinkt ist: Matt Cutts hält Google fern
Das Schlüsselbit ist:
Die Forschung, die Sie durchgeführt haben, deckt auch die Dinge gut ab und die Antworten von @john und @joe sind beide relevant. Ich habe unten einen Link eingefügt, der weitere Hinweise zum Blockieren von Suchmaschinen gibt. Die einzige Möglichkeit, die Site vollständig zu blockieren, besteht darin, vor der Site eine Art Passwortschutz hinzuzufügen, der abgeschlossen sein muss, bevor der Inhalt angezeigt wird.
SEOMoz Tipps, wie Sie nicht in der Suche erscheinen
quelle