Wir sind gerade auf die Tatsache gekommen, dass die meisten unserer Websites dieselben Fehler aufweisen, aber wir wissen nicht, wie wir sie lösen sollen.
https://search.google.com/test/mobile-friendly
Es sieht so aus, als würden einige Skripte auf den Websites nicht aufgenommen. Wir glauben, dass dies einen Einfluss auf unsere organischen SEO-Ergebnisse hat. Wir haben die Schritte des Google-Tests für Handys ausprobiert, aber keine Ergebnisse. Wir haben jetzt nach der letzten Woche gesucht, aber noch keine Lösung gefunden.
Irgendwelche Vorschläge? Informieren Sie uns bitte!
Der Fehler:
Seite teilweise geladen
Nicht alle Ressourcenseiten können geladen werden. Dies kann sich auf die Art und Weise auswirken, wie Google Ihre Seite sieht und interpretiert. Beheben Sie Verfügbarkeitsprobleme für Quellen, die sich auf die Interpretation Ihrer Seite durch Google auswirken können. ''
wp-content
diese Probleme verursachen. Ihre robots.txt sieht für mich allerdings zumindest jetzt gut aus. Hast du es kürzlich geändert?Antworten:
Googlebot kann viel Javascript lesen, aber nicht alles. Wenn Ihre robots.txt-Datei so eingerichtet ist, dass Ihre .js-Dateien gecrawlt werden können, ist Ihr Javascript wahrscheinlich zu komplex, als dass Google es vollständig rendern könnte.
Infolgedessen müssen Sie möglicherweise weiterhin verschiedene Versionen Ihres Javascript mit dem mobilen Test testen, um eine Version zu ermitteln, die Google korrekt verarbeiten kann. Je komplexer Ihr Javascript ist, desto wahrscheinlicher ist es, dass Google es nicht lesen kann. Versuchen Sie, Ihr Javascript so gut wie möglich zu vereinfachen.
quelle
js
&jpg
Dateien habe. Wenn Sie also Ihre Erklärung berücksichtigen, was ist mitjpg
Dateien?"Seite teilweise geladen" muss eine Liste der Ressourcen enthalten, die Googlebot nicht laden konnte. Beginnen Sie mit der Überprüfung dieser Ressourcen auf Barrierefreiheit.
Versuchen Sie als Nächstes Folgendes: Führen Sie den Test für mobile Geräte zweimal aus. Zuerst http: // version, dann https: // version. Hiermit wird überprüft, ob die https-Version der Site versucht, Ressourcen aus der http-Version zu laden und umgekehrt. Wenn Sie zwischen den beiden Tests einen Unterschied in der Anzahl der nicht geladenen Ressourcen feststellen, sollten Sie sich auf diese Ressourcen konzentrieren.
Testen Sie die Website auf gtmetrix.com, um einen besseren Überblick darüber zu erhalten, was wann geladen wird. Dadurch erhalten Sie die geladenen Ressourcen in chronologischer Reihenfolge und auch im Wasserfallformat.
Reduzieren Sie im Codebereich die Anzahl der Javascripts. Ich habe mir die Quelle einer der Websites angesehen und sehe fast 20 Javascript-Includes. Das sind viele http-Anfragen von derselben Domain. Fügen Sie dazu die Anforderungen für Bilder, CSS, Schriftarten usw. hinzu. Versuchen Sie, die JS- und CSS-Dateien zu jeweils einer oder zwei Dateien zusammenzuführen.
quelle
js
&jpg
Dateien auflisten . Ich kann sie problemlos selbst herunterladen.Wenn Sie diesen Test verwenden, beachten Sie, dass viele Pixel / Skripte zur Anzeigenverfolgung (sogar die Pixel von Google und die Pixel von Doubleclick (Google besitzt Doubleclick)) möglicherweise durch ihre eigene robots.txt-Datei blockiert werden, die Sie nicht steuern können. Ich habe dies aus erster Hand auf einer meiner eigenen Websites gesehen - Google hat das Scannen des eigenen Doubleclick-Pixels durch den Googlebot blockiert. Sie müssen sich fragen: "Der Googlebot dient zum Identifizieren von Inhalten auf Ihrer Seite und nicht zum Verfolgen von Pixel-Trackern. Selbst Googles eigene Tracking-Pixel blockieren seinen eigenen Googlebot. Warum sollte es mich also interessieren, wenn die Pixel-Tracker blockiert werden?" Und das sehe ich auch bei Facebooks Pixel.
Wenn es sich jedoch um eine robots.txt-Datei handelt, die Sie steuern und die nichts mit Pixel-Tracking zu tun hat, müssen Sie diese wahrscheinlich adressieren. Wenn Sie einen Teil Ihrer Website nur für Mitglieder oder einen Teil Ihrer Website nur für Administratoren haben und dieser von der Startseite aus verlinkt ist, können Sie Link-Cloaking- oder Nofollow-Link-Attribute in Betracht ziehen, damit der Googlebot dies nicht tut Versuchen Sie, dem auf Ihrer Seite zu folgen. Man muss sich jedoch fragen, ob Google möchte, dass Sie den Googlebot an einem Nur-Mitglieder- oder Nur-Administrator-Bereich Ihrer Website vorbei zulassen, was meiner Meinung nach wahrscheinlich nicht der Fall ist.
Dies ist jedoch meine Meinung. Wenn wir das SEO Engineering Team von Google nicht dazu bringen können, zu antworten, tappen wir im Dunkeln und müssen hier nur unsere beste Intuition des gesunden Menschenverstandes verwenden.
quelle