Für dieses aktuelle Projekt muss die Datenbank gesichert, verschlüsselt und an s3 gesendet werden. Ich frage mich, was einige "Best Practices" für eine solche Aufgabe sein könnten. Ab sofort verwende ich eine ziemlich einfache Methode, möchte aber einige bessere Ideen haben, wenn es um Sicherheit geht. Hier ist der Anfang …
Ich versuche, Nginx als Proxy für eine statische HTML / JS-Webanwendung einzurichten, die auf S3 gehostet wird. Ich habe viele Tutorials und Beiträge gelesen und könnte es zum Laufen bringen, wenn mein Bucket als öffentlich eingestellt ist. Der Grund, warum ich Nginx als Proxy benötige, ist, dass ich nicht möchte, …
Ich führe erfolgreich einen Amazon S3-Bucket als media.mydomain.com aus. Das Problem ist, dass ich eine https-Site betreibe und über https // media.mydomain.com keine Verknüpfung zu Dateien herstellen kann. Wie kann ich auf SSL umsteigen? Ich verwende Laravel Forge + Digital Ocean für das Hosting und die Bereitstellung, falls dies wichtig …
Wir haben ein Büro, in dem die Nachfrage nach Zugriff auf große Dateien aus unseren eigenen Amazon S3-Verzeichnissen steigt. Der schnelle Zugriff darauf ist für unser Unternehmen wichtig. Wir sind daher der Meinung, dass es an der Zeit ist, Kopien der Dateien vor Ort aufzubewahren. Dies ist nicht mein Fachgebiet, …
Ich versuche, die Synchronisierung zwischen zwei Buckets auf verschiedenen AWS-Konten einzurichten. Ich habe cpgearbeitet mit: @ubuntu:~$ s3cmd cp -v s3://src/dir/ s3://dest/folder --recursive Ich bin der Benutzer, der besitzt /src/dirund ich habe hinzugefügt: { "Version": "2012-10-17", "Id": "Policy1477299702471", "Statement": [ { "Sid": "Stmt1477299696163", "Effect": "Allow", "Principal": { "AWS": "arn:aws:iam::awsid:user/name" }, "Action": …
Ich habe verzweifelt versucht, einen Weg zu finden, um mein AWS EFS-Dateisystem auf S3 zu sichern, kann aber scheinbar keinen finden. Es gibt mehrere EC2-Instanzen, die alle Zugriff auf das erwähnte EFS haben. Um den Datenverkehr zu reduzieren, habe ich bereits versucht, eine Lambda-Funktion zu starten, die SSHs an die …
Ich habe statischen Inhalt, der von Cloudflare bereitgestellt wird. Cloudflare verweist auf Amazon S3, um den statischen Inhalt aufzunehmen und über einen CNAME (cdn.mydomain.com) bereitzustellen. Der Bucket ist ordnungsgemäß eingerichtet und alles funktionierte monatelang einwandfrei, bis am Freitag in meinem Browser das Zeitlimit für Anfragen ablief. Ich habe überprüft, ob …
Objekte, die größer als 5 GB sind, werden beim mehrteiligen Hochladen unterstützt. Wir haben bereits Dateien mit mehr als 5 GB in einem Bucket, die ich unter demselben AWS-Konto in einen anderen verschieben möchte. Wenn ich den Befehl mit s3cmd ausführe: s3cmd mv s3://BUCKET1/OBJECT1 s3://BUCKET2[/OBJECT2] Ich komme mit dem Fehler …
Wir haben einen riesigen Eimer mit Fotos auf s3. Wir fügen dies täglich hinzu und entfernen es, aber es enthält derzeit Millionen von Fotos, die wir nicht umschreiben oder aktualisieren möchten, wenn dies möglich ist. Wir haben für diese vorhandenen Fotos keine abgelaufenen Header festgelegt. Ich habe gerade die Wolkenfront …
Ich versuche, ein Verzeichnis mit dem folgenden Befehl in einem bereits vorhandenen Amazon S3-Bucket zu sichern: duplicity --no-encryption system/ s3+http://MY_BUCKET_NAME/backup Ich erhalte jedoch regelmäßig den folgenden Fehler: S3CreateError: S3CreateError: 409 Conflict <?xml version="1.0" encoding="UTF-8"?> <Error><Code>BucketAlreadyOwnedByYou</Code><Message>Your previous request to create the named bucket succeeded and you already own it.</Message><BucketName>vacationlabs</BucketName><RequestId>3C1B8C49469E3374</RequestId><HostId>4dU1TKf3Td6R0yvG9MaLKCYvQfwaCpdM8FUcv53aIOh0LeJ6wtVHHduPSTqjDwt0</HostId></Error> Der S3-Bucket …
Früher war es mein bevorzugter Backup-Transport-Agent, jetzt erhalte ich dieses Ergebnis häufig von s3cmd auf demselben Ubuntu-Server / Netzwerk: root@server:/home/backups# s3cmd put bkup.tgz s3://mybucket/ bkup.tgz -> s3://mybucket/bkup.tgz [1 of 1] 36864 of 2711541519 0% in 1s 20.95 kB/s failed WARNING: Upload failed: /bkup.tgz ([Errno 32] Broken pipe) WARNING: Retrying on …
Gibt es eine einfache Möglichkeit, einen Amazon S3-Bucket zu löschen, in dem sich viele Zehntausende von Objekten befinden? Ich habe s3cmd mit --recursive und --force ausprobiert, aber es bläht sich auf und läuft seit Tagen mit wenig Effekt.
Es ist unwahrscheinlich, dass diese Frage zukünftigen Besuchern hilft. Es ist nur für ein kleines geografisches Gebiet, einen bestimmten Zeitpunkt oder eine außerordentlich enge Situation relevant, die für das weltweite Internetpublikum nicht allgemein anwendbar ist. Wenn Sie Hilfe benötigen, um diese Frage allgemeiner anwendbar zu machen, besuchen Sie die Hilfe …
Die Website meines Unternehmens verfügt aus Geschwindigkeits- und Kostengründen über eine statische Homepage. Wir verwenden S3 als Ursprung für CloudFront. Jetzt möchten wir Strict-Transport-Security für die gesamte Domain deklarieren, aber S3 scheint keine von uns angegebenen Header zu senden (über diejenigen hinaus, die mit x-aws-- beginnen). CloudFront scheint auch keine …
Trotz meiner Bemühungen kann ich selbst mit dem offiziellen AWS Policy Generator und AWS Policy Simulator nicht die richtigen Richtlinien abrufen, um einem einzelnen Benutzer Zugriff auf nur einen Bucket zu gewähren. Dies ist, was ich generiert habe, aber wenn ich teste, schlägt es fehl. { "Statement": [ { "Action": …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.