Wir haben eine Inhaltsdatenbank mit einer Größe von 300 GB. Keine Probleme mit Backups nach dem Wechsel zu Lite Speed. Vor dem Wechsel würden wir ernsthafte Leistungseinbußen bei Websites feststellen.
Für den Datensatz wollten wir KEINE so große Inhaltsdatenbank haben. Wir hatten spezielle Geschäftsanforderungen in Bezug auf das Teilen von Inhalten, die sehr schwierig zu implementieren gewesen wären, wenn wir den Inhalt in separate Websitesammlungen gestellt hätten.
Als wir das erste Mal live gingen, hatten wir während der Spitzenauslastung große Probleme mit der Sperrung der Datenbank. Wir haben dies auf die Verwendung des CrossListQueryCache-Objekts in SharePoint zurückgeführt. Wir haben diese API nicht mehr verwendet und sie hat einen großen Teil unserer Leistung beeinträchtigt.
Ich schrieb einen kleinen Blog - Artikel mit mehr Informationen nach oben hier .
Bei bestimmten Aktualisierungstypen (Löschen von Blobs> 20 MB) und beim Umbenennen von Websites treten immer noch Probleme beim Sperren auf (dies kann zu Aktualisierungen vieler Datensätze in der AllUserData-Tabelle führen. In bestimmten Fällen arbeiten wir mit dem MS-Support zusammen (z. B. Entfernen großer Elemente aus dem Papierkorb) Diese wurden auf die Art und Weise zurückgeführt, wie bestimmte gespeicherte Prozeduren in SharePoint Daten löschen, aber wir haben noch keine Lösung.
Persönlich denke ich, dass Probleme auftreten, nachdem Sie so viele Datensätze in der AllUserData-Tabelle erhalten haben. Die einfachste Möglichkeit für MS, dies den Menschen mitzuteilen, bestand darin, unter 100 GB zu bleiben.
Ich schlage vor, die Leute bei MS IT anzupingen ... Ich habe laut Aufzeichnungen gehört, dass sie eine SharePoint Content DB> 800 GB haben.