Gibt es eine Möglichkeit, URLs als Google per Massenübermittlung an Fetch zu senden?

7

Es dauert eine Weile, bis Google die Änderungen, die ich an Tausenden von Seiten vorgenommen habe, neu indiziert. Daher möchte ich Fetch als Google verwenden, um eine Eingabeaufforderung zu erhalten. Sie können jedoch standardmäßig jeweils nur 1 URL eingeben.

Gibt es eine Möglichkeit, URLs per Bulk zu senden?

Newmania
quelle
1
Nicht das, wonach Sie fragen, aber Sie sollten in Betracht ziehen, XML-Sitemaps einzureichen.
kqw
Das mache ich schon, aber danke für den Vorschlag.
Newmania

Antworten:

9

Indirekt ja :

  1. Erstellen Sie eine Seite mit Links zu allen URLs, die Sie erneut crawlen möchten (z. B. eine Sitemap), und fügen Sie diese Ihrer Website hinzu. *

  2. Senden Sie die URL zu dieser Seite an Abrufen als Google , und wählen Sie Desktop als Abrufstrategie aus, wie hier beschrieben: Verwenden Sie Abrufen als Google .

  3. Wenn das Abrufen als Google abgeschlossen ist und Sie innerhalb von 4 Stunden in der Abruftabelle neben dem Status des Abrufs die Option "An Index senden" auswählen , wählen Sie " Diese URL und ihre direkten Links crawlen" und anschließend " Senden" .

Wie unter Bitten Sie Google, Ihre URLs erneut zu crawlen, wird Folgendes ausgeführt :

Senden Sie die URL sowie alle anderen Seiten, auf die die URL verweist, zum erneuten Crawlen. Sie können bis zu 10 Anfragen dieser Art pro Monat einreichen.

* Wie von John Mueller kommentiert, können Sie auch eine Sitemap-Datei oder eine Textdatei mit einer Liste von URLs einreichen.

dan
quelle
1
@dan Das ist meiner Idee weit überlegen! Ich werde dies in meinem Rolodex der Tricks behalten.
Closetnoc
1
Sie können auch einfach eine Sitemap-Datei (oder eine Text-URL-Listendatei) erstellen und diese senden.
John Mueller
@ JohnMueller Danke für deine Eingabe hier, fügte das der Antwort hinzu.
dan
@ JohnMueller Danke. Ich versuche jetzt, die Deindizierung von Seiten zu beschleunigen. Könnte ich eine Sitemap von Seiten zum De-Indexieren einreichen (ich bin nicht sicher, ob es nicht intuitiv ist, ein erneutes Crawlen auf Seiten zu verweisen, die neu indiziert werden sollen?).
Newmania
1
@Newmania sicher, das funktioniert auch.
John Mueller
1

Durch das Senden einer Sitemap (XML, .txtHTML oder RSS) können Bots Seiten erkennen. Wenn Sie eine noch schnellere Einreichung benötigen, tun Sie dies manuell oder bei einigen Arten der Automatisierung (mit Selen).

Vikas Avnish
quelle
Nett. Ich wusste nicht, dass Sie .txtSitemaps verwenden können. Ich dachte, sie müssten nur dem Sitemap-Protokoll entsprechen .
Geremia