Wir entwickeln derzeit eine Website mit derzeit 8 Millionen einzigartigen Seiten, die sofort auf etwa 20 Millionen und schließlich auf mindestens 50 Millionen erweitert werden.
Bevor Sie kritisieren ... Ja, es bietet einzigartige, nützliche Inhalte. Wir verarbeiten ununterbrochen Rohdaten aus öffentlichen Aufzeichnungen und konnten durch einige Datenbereinigungen, Entitäts-Rollups und Beziehungszuordnungen qualitativ hochwertige Inhalte generieren. So haben wir eine Website entwickelt, die zum Teil aufgrund der Breite der Website sehr nützlich und auch einzigartig ist Daten.
Der PR-Wert ist 0 (neue Domain, keine Links), und wir werden mit einer Rate von ca. 500 Seiten pro Tag überflutet, was einem Index von ca. 30.000 Seiten entspricht. Bei dieser Geschwindigkeit würde es über 400 Jahre dauern, alle unsere Daten zu indizieren.
Ich habe zwei Fragen:
- Steht die Indexierungsrate in direktem Zusammenhang mit PR, und damit meine ich, dass durch den Kauf einer alten Domain mit guter PR eine brauchbare Indexierungsrate (in der Nähe von 100.000 Seiten pro Tag) erreicht wird.
- Gibt es SEO-Berater, die auf die Unterstützung des Indexierungsprozesses selbst spezialisiert sind? Ansonsten kommen wir mit SEO sehr gut zurecht, insbesondere auf der Seite. Außerdem ist die Konkurrenz für unsere "Long-Tail" -Schlüsselwortphrasen ziemlich gering, sodass unser Erfolg hauptsächlich von der Anzahl der indizierten Seiten abhängt.
Unser Hauptkonkurrent hat in etwas mehr als einem Jahr ca. 20 Millionen indizierte Seiten zusammen mit einem Alexa-2000-Rang erreicht.
Bemerkenswerte Eigenschaften, die wir vor Ort haben:
- Seiten-Download-Geschwindigkeit ist ziemlich gut (250-500 ms)
- Keine Fehler (keine 404- oder 500-Fehler, wenn man spidered wird)
- Wir verwenden Google Webmaster-Tools und melden uns täglich an
- freundliche URLs vorhanden
- Ich habe Angst, Sitemaps einzureichen. Einige SEO-Community-Posts schlagen eine neue Site mit Millionen von Seiten vor, und keine PR ist verdächtig. Es gibt ein Google-Video von Matt Cutts, in dem von einer Inszenierung großer Websites gesprochen wird, um eine verstärkte Überprüfung zu vermeiden (im Video um ca. 2:30 Uhr).
- Klickbare Site-Links liefern alle Seiten, nicht mehr als vier Seiten tief und normalerweise nicht mehr als 250 (-ish) interne Links auf einer Seite.
- Ankertext für interne Links ist logisch und fügt den Daten auf den Detailseiten hierarchische Relevanz hinzu.
- Wir hatten zuvor die Crawling-Rate für Webmaster-Tools auf die höchste festgelegt (nur etwa alle zwei Sekunden, max. Eine Seite). Ich habe es kürzlich zurückgedreht, um Google entscheiden zu lassen, was empfohlen wird.