Wenn die /varPartition auf dem Produktionsserver voll ist, wie lautet dann die Lösung? Unten sind meine Problemumgehung: Wenn es sich um eine LVM-Partition handelt, können wir sie online erweitern. Wir können Protokolle komprimieren. Wir können alte Daten entfernen. Bitte schlagen Sie mir weitere Möglichkeiten vor, um dieses Problem zu lösen …
Gibt es gängige Linux-Tools, die den Speicherplatz im Laufe der Zeit verfolgen, nicht nur ein Dateisystem insgesamt, sondern zum Beispiel, damit ich leicht erkennen kann, welche Verzeichnisbäume historisch angeschwollen und geschrumpft sind? Das Problem tritt auf Servern , die 0 Freiraum trotz Routine Hausreinigung von Cache und tmp - Dateien …
Nach dem Erhalten WARNING: Your hard drive is failing Device: /dev/sdb [SAT], 1 Offline uncorrectable sectors ich renne $ sudo smartctl -a /dev/sdb smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.10.0-514.26.2.el7.x86_64] (local build) Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org === START OF INFORMATION SECTION === Device Model: KingDian S200 60GB Serial …
Ich versuche, die Größe eines Ordners zu ermitteln, in den eine Anwendung gerade schreibt. Wenn ich den duBefehl ausführe, schlägt er manchmal mit dem Fehler fehl: du: cannot access `/a/b/a.txt': No such file or directory weil die Anwendung die Datei während duder Verarbeitung gelöscht hat . Wie kann ich es …
root@SERVER ~$ df Filesystem 512-blocks Free %Used Iused %Iused Mounted on /dev/YXCV 655360 365632 45% 6322 13% / /dev/ASDF 3801088 670648 83% 41759 32% /usr /dev/ASR 1048576 500496 53% 5555 9% /var Wie kann ich die dfAusgabe des Befehls so weiterleiten, dass nur Zeilen angezeigt werden, die mehr als 80% …
Wie kann ich herausfinden, wie viel Festplatte eine Liste von Dateien verwendet? Ich suche eine Variation von du -s *.sql Ich möchte nur die Gesamtsumme sehen und mit dem obigen Befehl wird immer eine Zeile für jede Datei angezeigt.
Wir wollen die ersten Zahlen berechnen, von denen wir bekommen du du -b /tmp/* 6 /tmp/216c6f99-6671-4865-b8bc-7205f5388752_resources 668669 /tmp/hadoop7887078727316788325.tmp 6 /tmp/hadoop-hdfs 42456 /tmp/hive 32786 /tmp/hsperfdata_hdfs 6 /tmp/hsperfdata_hive 32786 /tmp/hsperfdata_root 262244 /tmp/hsperfdata_yarn so wird die endgültige Summe sein sum=6+668669+6+42456+32786+6+32786+262244 echo $sum Wie können wir es mit awk oder perl one linern machen?
Ich erhalte eine Warnung zur Datenträgernutzung vom Server. " Das unter" / "gemountete Dateisystem" / "hat den Status" kritisch "erreicht, da Sie derzeit 92,77% der verfügbaren Blöcke verwenden." Nach eingehender Untersuchung stellte ich fest, dass / var / crash 56G verwendet. Ist es sicher, VMcore-Dateien von dort zu entfernen, ohne …
Was erklärt die Diskrepanz in der Verwendung ( 82 GBvs 13 GB), die ich unten sehe? Verwenden von df: $ df -h / Filesystem Size Used Avail Use% Mounted on /dev/sda2 96G 82G 9.9G 90% / Verwenden von du: $ sudo du -cshx / 13G / 13G total
Ich habe in den letzten Stunden erfolglos versucht, mein "/" zu speichern :( Ich bin in einem Testzweig von Debian und möchte mein System jedes Mal vor dem Update speichern. Die Sicherung würde auf dem zweiten Laufwerk erfolgen, bei dem es sich um ein bootfähiges Win7 handelt. sudo rsync -aAXv …
Folgendes mache ich gerade: sort -T /some_dir/ --parallel=4 -uo file_sort.csv -k 1,3 file_unsort.csv Die Datei ist 90 GB, ich habe diese Fehlermeldung erhalten sort: close failed: /some_dir/sortmdWWn4: Disk quota exceeded Bisher habe ich die Option -T nicht verwendet und anscheinend ist das tmp-Verzeichnis nicht groß genug, um dies zu handhaben. …
Auf einem Ubuntu 14.04-System habe ich versucht, ein Teerarchiv zu extrahieren: /media/ntfs-drive/target-dir$ tar --extract -v --file ../source-dir/data.tar Nach dem Extrahieren einiger Dateien meldet tar, dass nicht genügend Speicherplatz vorhanden ist, während in Wirklichkeit genügend Speicherplatz vorhanden ist. Hier ist die Ausgabe von df -mfür das betreffende Gerät, aus der hervorgeht, …
Manchmal geht ein Prozess schief und die Anmeldungen /var/logwachsen so stark an, dass sie letztendlich die gesamte Partition ausfüllen. Es passierte mir einmal auf einem Server aufgrund einer falschen Postfix-Konfiguration und einmal auf einem Desktop aufgrund eines USB-Druckers (ich weiß nicht genau, was schief gelaufen ist, ich weiß nur, dass …
Das Ausführen du -shc *im obersten Verzeichnis ergibt 110Geinen bestimmten Ordner, während das Ausführen des gleichen Befehls in diesem Ordner eine Gesamtgröße von ergibt 11G. Wie ist das möglich? Plattformdetails: Betriebssystem: CentOS 6.6 x86_64 Laufwerkstyp: Solid-State Datenträgertyp: RAID 6-Array RAID-Controller: LSI MegaRAID SAS-Dateisystem: ext3
Ich habe mein Bestes über Google gesucht, aber für mein Leben kann ich *nach einem kürzlich durchgeführten Update nicht herausfinden, was ich anstelle von (Sternchen) verwenden soll (sogar Wikipedia scheint zu denken du -sh * and du -sh * sollte arbeiten) Ich habe benutzt du -sh * | sort -h …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.