Wir entwickeln derzeit eine Website mit derzeit 8 Millionen einzigartigen Seiten, die sofort auf etwa 20 Millionen und schließlich auf mindestens 50 Millionen erweitert werden.
Bevor Sie kritisieren ... Ja, es bietet einzigartige, nützliche Inhalte. Wir verarbeiten ununterbrochen Rohdaten aus öffentlichen Aufzeichnungen und konnten durch einige Datenbereinigungen, Entitäts-Rollups und Beziehungszuordnungen qualitativ hochwertige Inhalte generieren. So haben wir eine Website entwickelt, die zum Teil aufgrund der Breite der Website sehr nützlich und auch einzigartig ist Daten.
Der PR-Wert ist 0 (neue Domain, keine Links), und wir werden mit einer Rate von ca. 500 Seiten pro Tag überflutet, was einem Index von ca. 30.000 Seiten entspricht. Bei dieser Geschwindigkeit würde es über 400 Jahre dauern, alle unsere Daten zu indizieren.
Ich habe zwei Fragen:
- Steht die Indexierungsrate in direktem Zusammenhang mit PR, und damit meine ich, dass durch den Kauf einer alten Domain mit guter PR eine brauchbare Indexierungsrate (in der Nähe von 100.000 Seiten pro Tag) erreicht wird.
- Gibt es SEO-Berater, die auf die Unterstützung des Indexierungsprozesses selbst spezialisiert sind? Ansonsten kommen wir mit SEO sehr gut zurecht, insbesondere auf der Seite. Außerdem ist die Konkurrenz für unsere "Long-Tail" -Schlüsselwortphrasen ziemlich gering, sodass unser Erfolg hauptsächlich von der Anzahl der indizierten Seiten abhängt.
Unser Hauptkonkurrent hat in etwas mehr als einem Jahr ca. 20 Millionen indizierte Seiten zusammen mit einem Alexa-2000-Rang erreicht.
Bemerkenswerte Eigenschaften, die wir vor Ort haben:
- Seiten-Download-Geschwindigkeit ist ziemlich gut (250-500 ms)
- Keine Fehler (keine 404- oder 500-Fehler, wenn man spidered wird)
- Wir verwenden Google Webmaster-Tools und melden uns täglich an
- freundliche URLs vorhanden
- Ich habe Angst, Sitemaps einzureichen. Einige SEO-Community-Posts schlagen eine neue Site mit Millionen von Seiten vor, und keine PR ist verdächtig. Es gibt ein Google-Video von Matt Cutts, in dem von einer Inszenierung großer Websites gesprochen wird, um eine verstärkte Überprüfung zu vermeiden (im Video um ca. 2:30 Uhr).
- Klickbare Site-Links liefern alle Seiten, nicht mehr als vier Seiten tief und normalerweise nicht mehr als 250 (-ish) interne Links auf einer Seite.
- Ankertext für interne Links ist logisch und fügt den Daten auf den Detailseiten hierarchische Relevanz hinzu.
- Wir hatten zuvor die Crawling-Rate für Webmaster-Tools auf die höchste festgelegt (nur etwa alle zwei Sekunden, max. Eine Seite). Ich habe es kürzlich zurückgedreht, um Google entscheiden zu lassen, was empfohlen wird.
quelle
Antworten:
Einige mögliche Strategien:
Zum Schluss sollte ich das sagen. SEO und Indizierung sind nur ein kleiner Teil der Geschäftswebsite. Verlieren Sie nicht den Fokus auf den ROI im Sinne der Suchmaschinenoptimierung. Selbst wenn Sie viel Verkehr von Google haben, spielt es keine Rolle, ob Sie ihn nicht konvertieren können. SEO ist wichtig, aber es muss in der Perspektive gehalten werden.
Bearbeiten :
Als Ergänzung zu Ihrem Anwendungsfall: Sie könnten in Betracht ziehen, Bewertungen oder Testimonials für jede Person oder jedes Unternehmen anzubieten. Das Verteilen von Benutzerausweisen wie StackOverflow kann auch dazu führen, dass zumindest einige Personen auf ihr eigenes Profil auf Ihrer Website verlinken. Das würde einige externe Links zu Ihren tiefen Seiten fördern, was bedeuten könnte, dass Sie schneller indexiert werden.
quelle
Es wird jedoch nicht von heute auf morgen geschehen. Ich garantiere, dass Ihre Seiten früher gespidert werden, wenn eingehende Links zu tiefgreifenden Inhalten (insbesondere Sitemap-Seiten oder Verzeichnisindizes, die auf noch tiefgreifendere Inhalte verweisen) von ähnlich großen Websites hinzugefügt werden Ich bin schon eine Weile hier.
Zweifelhaft, es sei denn, Sie sprechen von einer älteren Domain, auf der im Laufe der Jahre eine erhebliche Aktivität stattgefunden hat (dh angesammelte Inhalte und eingehende Links).
Wenn Sie die Frage so stellen, werden Sie sicher viele SEOs finden, die lautstark "Ja!" Aber am Ende des Tages sind die Vorschläge von Virtuosi Media so gute Ratschläge, wie Sie von keinem von ihnen erhalten werden (ganz zu schweigen von den potenziell schlechten Ratschlägen).
In Anbetracht dessen sollten Sie erwägen, das Ranking Ihrer Website an dieser Stelle mithilfe von Kanälen für Geschäftsentwicklung und Öffentlichkeitsarbeit zu verbessern. Erhalten Sie mehr Links zu Ihren Inhalten (vorzugsweise durch Partnerschaften mit einer vorhandenen Website, die regional ausgerichtete Inhalte zum Verknüpfen mit Ihren Inhalten anbietet B. nach Regionen aufgeteilte Inhalte), damit mehr Menschen auf Ihre Website zugreifen (bei einigen wird die Google-Symbolleiste installiert, damit der Datenverkehr für die Seitenerkennung genutzt werden kann ) und wenn möglich, Ihr Unternehmen in den Nachrichten oder in Communitys bekannt macht von Menschen, die ein Bedürfnis danach haben (wenn Sie vorhaben, für bestimmte Dienste eine Gebühr zu erheben, sollten Sie eine kostenlose Testphase inserieren, um Interesse zu wecken).
quelle
Ich kenne zwei Möglichkeiten, um Ihnen zu helfen.
Erstens: Ein kleiner Trick, den ich mit einer Website mit drei Millionen Seiten ausprobiert habe und der überraschend gut funktioniert hat, war das, was mein Kollege für eine Crawl-Schleife erfunden hat. Möglicherweise müssen Sie die Idee ein wenig manipulieren, um sie an Ihre Website anzupassen.
Grundsätzlich haben wir einen Tag festgelegt, an dem wir nicht dachten, dass wir viel Verkehr bekommen würden (Weihnachten), und wir haben buchstäblich eine Liste jedes einzelnen Links auf unserer Website kopiert und jeden einzelnen in eine PHP-Datei eingefügt, die auf jeder einzelnen Webseite aufgerufen wurde. (Die Sidebar PHP-Datei)
Wir gingen dann zur Google-Suchkonsole (ehemals Google Webmaster-Tools) und forderten Google auf, eine URL abzurufen und jeden einzelnen Link auf dieser URL-Seite zu crawlen.
Da Sie so viele Links haben und die Seiten, auf die diese Links verweisen, auch über eine große Anzahl von Links verfügen, geht Google in eine Art Schleife und durchsucht die Website auf viel schnellere Weise. Anfangs war ich skeptisch, aber es wirkte wie ein Zauber.
Bevor Sie dies tun, müssen Sie sicherstellen, dass Sie über ein äußerst effizientes Datenbank-Setup und einen sehr leistungsstarken Server verfügen. Andernfalls kann es aufgrund der langsamen Ladezeiten zu einer Überlastung des Servers oder zu einer Beeinträchtigung Ihrer SEO kommen.
Wenn dies keine Option für Sie ist, können Sie immer in googles Cloud Console Apis nachsehen. Sie haben eine Suchkonsolen-API, sodass Sie ein Skript schreiben können, um entweder jede Webseite als eigene Website-Instanz in die Suchkonsole einzufügen oder um zu veranlassen, dass Google jede einzelne Ihrer URLs abruft.
Die Apis können extrem schnell kompliziert werden, sind aber ein erstaunliches Werkzeug, wenn sie richtig verwendet werden.
Viel Glück!
quelle
Das Spielen des Systems ist niemals eine gute Idee, wenn Sie ein legitimes Unternehmen betreiben, das seinen Online-Ruf schätzt. Wenn Ihre Website einen echten Mehrwert bietet, werden umso mehr Backlinks generiert, je länger sie besteht (ich nehme an, Sie betreiben eine Art Marketing?), Sodass Ihre PR und Ihre Crawling-Rate steigen.
Wenn Sie eine gute Linkstruktur auf Ihrer Website haben (alle Ihre Seiten sind mit einer angemessenen Anzahl von Klicks / Links auffindbar), müssen Sie die Hauptindizes nur über eine Sitemap einreichen. Sobald diese Seiten von Google indiziert wurden, werden sie von Google gecrawlt und der Rest der Seiten wird von Google selbst indiziert.
quelle
Bei den Google Webmaster-Tools stelle ich fest, dass sie zunächst eine maximale Crawling-Rate von etwa zwei Anforderungen pro Sekunde zulassen. Etwa eine Woche später können Sie Ihr Limit erhöhen, wenn sie feststellen, dass häufig auf die Website zugegriffen wird.
Ich betreibe eine Website, auf der über 500.000 Originalbilder gehostet werden, und manchmal liegt mein Maximalwert bei 10 Anfragen pro Sekunde, da ich mindestens 700 bis 1000 Zugriffe pro Tag erhalte, wenn nicht sogar mehr.
Wenden Sie sich daher möglicherweise jede Woche an die Webmaster-Tools, um festzustellen, ob Sie das Crawling-Limit erhöhen können. Wenn Sie das Crawling-Limit ändern, setzt Google es nach Ablauf eines bestimmten Tages wieder auf die bevorzugten Einstellungen zurück (dies wird Ihnen auf der Benutzeroberfläche angezeigt). Erhöhen Sie dann an diesem Tag das Limit erneut.
quelle
Ich habe Erfahrung mit genau dieser Art von Website. Ich habe vor vielen Jahren ein Artikelverzeichnis geführt und der Prozentsatz der indizierten Seiten und, was noch wichtiger ist, die tatsächliche Leistung war so ziemlich direkt mit der Anzahl der verweisenden Domains verknüpft - dh der Anzahl der eindeutigen Websites, auf die verlinkt wird. Eine große Site mit Millionen von Seiten benötigt mehrere 1.000 Seiten vernünftige Domains verlinken, um sich selbständig zu machen.
Es wird sicher nicht über Nacht passieren, aber wenn Sie 5-10 gute Links pro Tag aufbauen, werden Sie in der Lage sein, Einkommen zu generieren und damit ein professionelles SEO-Outfit zu bezahlen, um Links aufzubauen für dich.
Ich erstelle zurzeit eine ähnliche informative Website, die noch in den Anfängen steckt, habe jedoch das gleiche Problem mit etwa 4 Millionen Inhaltsseiten mit einer Crawling-Rate von 700 bis 1.000 Seiten pro Tag.
quelle
Ich kenne zwei Möglichkeiten, um Ihnen zu helfen.
Erstens: Ein kleiner Trick, den ich mit einer Website mit drei Millionen Seiten ausprobiert habe und der überraschend gut funktioniert hat, war das, was mein Kollege für eine Crawl-Schleife erfunden hat. Möglicherweise müssen Sie die Idee ein wenig manipulieren, um sie an Ihre Website anzupassen.
Grundsätzlich haben wir einen Tag festgelegt, an dem wir nicht dachten, dass wir viel Verkehr bekommen würden (Weihnachten), und wir haben buchstäblich eine Liste jedes einzelnen Links auf unserer Website kopiert und jeden einzelnen in eine PHP-Datei eingefügt, die auf jeder einzelnen Webseite aufgerufen wurde. (Die Sidebar PHP-Datei)
Wir gingen dann zur Google-Suchkonsole (ehemals Google Webmaster-Tools) und forderten Google auf, eine URL abzurufen und jeden einzelnen Link auf dieser URL-Seite zu crawlen.
Da Sie so viele Links haben und die Seiten, auf die diese Links verweisen, auch über eine große Anzahl von Links verfügen, geht Google in eine Art Schleife und durchsucht die Website auf viel schnellere Weise. Anfangs war ich skeptisch, aber es wirkte wie ein Zauber.
Bevor Sie dies tun, müssen Sie sicherstellen, dass Sie über ein äußerst effizientes Datenbank-Setup und einen sehr leistungsstarken Server verfügen. Andernfalls kann es aufgrund der langsamen Ladezeiten zu einer Überlastung des Servers oder zu einer Beeinträchtigung Ihrer SEO kommen.
Wenn dies keine Option für Sie ist, können Sie immer in googles Cloud Console Apis nachsehen. Sie haben eine Suchkonsolen-API, sodass Sie ein Skript schreiben können, um entweder jede Webseite als eigene Website-Instanz in die Suchkonsole einzufügen oder um zu veranlassen, dass Google jede einzelne Ihrer URLs abruft.
Die Apis können extrem schnell kompliziert werden, sind aber ein erstaunliches Werkzeug, wenn sie richtig verwendet werden.
Viel Glück!
quelle