Weiß jemand, ob die Anzahl der Objekte, die ich in einen S3-Bucket legen kann, begrenzt ist? Kann ich eine Million, 10 Millionen usw. in einen einzigen Eimer geben?
Weiß jemand, ob die Anzahl der Objekte, die ich in einen S3-Bucket legen kann, begrenzt ist? Kann ich eine Million, 10 Millionen usw. in einen einzigen Eimer geben?
Antworten:
Laut Amazon:
Schreiben, lesen und löschen Sie Objekte mit jeweils 0 Byte bis 5 Terabyte Daten. Die Anzahl der Objekte, die Sie speichern können, ist unbegrenzt.
Quelle: http://aws.amazon.com/s3/details/ vom 3. September 2015.
Es sieht so aus, als hätte sich das Limit geändert. Sie können 5 TB für ein einzelnes Objekt speichern.
Das Gesamtdatenvolumen und die Anzahl der Objekte, die Sie speichern können, sind unbegrenzt. Einzelne Amazon S3-Objekte können eine Größe von mindestens 0 Byte bis maximal 5 Terabyte haben. Das größte Objekt, das in einem einzelnen PUT hochgeladen werden kann, ist 5 Gigabyte. Für Objekte, die größer als 100 Megabyte sind, sollten Kunden die Multipart-Upload-Funktion in Betracht ziehen.
Aus Dokumenten,
Die Anzahl der Objekte, die in einem Bucket gespeichert werden können, ist unbegrenzt und es gibt keinen Leistungsunterschied, unabhängig davon, ob Sie viele oder nur wenige Buckets verwenden. Sie können alle Ihre Objekte in einem einzigen Bucket speichern oder sie über mehrere Buckets hinweg organisieren.
Stand August 2016
Während Sie eine unbegrenzte Anzahl von Dateien / Objekten in einem einzelnen Bucket speichern können, erhalten Sie beim Auflisten eines "Verzeichnisses" in einem Bucket standardmäßig nur die ersten 1000 Dateien / Objekte in diesem Bucket. Um auf alle Dateien in einem großen "Verzeichnis" wie diesem zuzugreifen, müssen Sie ihre API mehrfach aufrufen.
Die Anzahl der Objekte, die Sie in Ihrem S3-Bucket speichern können, ist unbegrenzt. AWS behauptet, unbegrenzten Speicherplatz zu haben. Es gibt jedoch einige Einschränkungen -
Wenn Sie jedoch wirklich viele Objekte im S3-Bucket speichern müssen, sollten Sie Ihr Objektnamenpräfix zufällig auswählen, um die Leistung zu verbessern.
Wenn Ihre Arbeitslast aus einer Mischung von Anforderungstypen besteht, fügen Sie den Schlüsselnamen eine gewisse Zufälligkeit hinzu, indem Sie dem Schlüsselnamen eine Hash-Zeichenfolge als Präfix hinzufügen. Durch die Zufälligkeit Ihrer Schlüsselnamen wird die E / A-Last auf mehrere Indexpartitionen verteilt. Sie können beispielsweise einen MD5-Hash der Zeichenfolge berechnen, die Sie als Schlüssel zuweisen möchten, und dem Schlüsselnamen 3 oder 4 Zeichen aus dem Hash als Präfix hinzufügen.
Weitere Details - https://aws.amazon.com/premiumsupport/knowledge-center/s3-bucket-performance-improve/
- Stand Juni 2018
"Sie können so viele Objekte in einem Bucket speichern, wie Sie möchten, und Objekte in Ihren Bucket schreiben, lesen und löschen. Objekte können bis zu 5 Terabyte groß sein."
von http://aws.amazon.com/s3/details/ (Stand: 4. März 2015)
@ Acyra - Die Leistung der Objektlieferung aus einem einzelnen Bucket hängt stark von den Namen der darin enthaltenen Objekte ab.
Wenn die Dateinamen durch zufällige Zeichen entfernt wären, würden ihre physischen Speicherorte auf der AWS-Hardware weiter verteilt. Wenn Sie jedoch alles "common-x.jpg", "common-y.jpg" nennen, werden diese Objekte zusammen gespeichert.
Dies kann die Zustellung der Dateien verlangsamen, wenn Sie sie gleichzeitig anfordern, aber nicht genug, um Sie zu beunruhigen. Das größere Risiko besteht aus Datenverlust oder einem Ausfall, da diese Objekte zusammen gespeichert werden und zusammen verloren gehen oder nicht verfügbar sind.