Das RAID-Array wird nach dem Neustart nicht zusammengesetzt.
Ich habe eine SSD, von der das System gestartet wird, und drei Festplatten, die Teil des Arrays sind. Das System ist Ubuntu 16.04.
Die Schritte, die ich befolgt habe, basieren hauptsächlich auf diesem Handbuch:
Überprüfen, ob ich bereit bin zu gehen.
lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT
Die Ausgabe zeigt neben den SSD-Partitionen auch sda-, sdb- und sdc-Geräte. Ich habe anhand der Ausgabe überprüft, ob diese tatsächlich Festplatten darstellen:
hwinfo --disk
Alles passt zusammen.
Array zusammenbauen.
sudo mdadm --create --verbose /dev/md0 --level=5 --raid-devices=3 /dev/sda /dev/sdb /dev/sdc
Ich überprüfe, ob es in Ordnung aussieht, indem ich Folgendes eingebe: cat / proc / mdstat
Die Ausgabe sieht ungefähr so aus:
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sdc[3] sdb[1] sda[0]
7813774336 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_]
[=======>.............] recovery = 37.1% (1449842680/3906887168) finish=273.8min speed=149549K/sec
bitmap: 0/30 pages [0KB], 65536KB chunk
unused devices: <none>
Ich warte bis der Prozess endet.
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sdc[3] sdb[1] sda[0]
209584128 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
unused devices: <none>
Erstellen und Mounten des Dateisystems.
sudo mkfs.ext4 -F /dev/md0 sudo mkdir -p /mnt/md0 sudo mount /dev/md0 /mnt/md0 df -h -x devtmpfs -x tmpfs
Ich habe einige Daten eingegeben und die Ausgabe sieht folgendermaßen aus:
Filesystem Size Used Avail Use% Mounted on
/dev/nvme0n1p2 406G 191G 196G 50% /
/dev/nvme0n1p1 511M 3.6M 508M 1% /boot/efi
/dev/md0 7.3T 904G 6.0T 13% /mnt/md0
Speichern des Array-Layouts.
sudo mdadm --detail --scan | sudo tee -a /etc/mdadm/mdadm.conf sudo update-initramfs -u echo '/dev/md0 /mnt/md0 ext4 defaults,nofail,discard 0 0' | sudo tee -a /etc/fstab
Neustart und Überprüfung, ob alles richtig funktioniert.
Nach dem Neustart versuche ich: cat / proc / mdstat
Es werden keine aktiven RAID-Geräte angezeigt .
ls /mnt/md0
ist leer.
Der folgende Befehl druckt nichts und funktioniert auch nicht:
mdadm --assemble --scan -v
Nur das Folgende stellt das Array mit Daten wieder her:
sudo mdadm --create --verbose /dev/md0 --level=5 --raid-devices=3 /dev/sda /dev/sdb /dev/sdc
Was soll anders gemacht werden?
Zusätzliche, wahrscheinlich nützliche Informationen:
sudo dpkg-reconfigure mdadm
Die Ausgabe zeigt:
update-initramfs: deferring update (trigger activated)
Generating grub configuration file ...
Warning: Setting GRUB_TIMEOUT to a non-zero value when GRUB_HIDDEN_TIMEOUT is set is no longer supported.
Found linux image: /boot/vmlinuz-4.4.0-51-generic
Found initrd image: /boot/initrd.img-4.4.0-51-generic
Found linux image: /boot/vmlinuz-4.4.0-31-generic
Found initrd image: /boot/initrd.img-4.4.0-31-generic
Adding boot menu entry for EFI firmware configuration
done
update-rc.d: warning: start and stop actions are no longer supported; falling back to defaults
Processing triggers for initramfs-tools (0.122ubuntu8.5) ...
update-initramfs: Generating /boot/initrd.img-4.4.0-51-generic
Der faszinierende Teil für mich ist "Start- und Stoppaktionen werden nicht mehr unterstützt; auf Standardeinstellungen zurückgreifen"
Auch die Ausgabe von / usr / share / mdadm / mkconf druckt am Ende keine Arrays.
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR craftinity@craftinity.com
# definitions of existing MD arrays
wohingegen die Ausgabe von cat /etc/mdadm/mdadm.conf dies tut.
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers
# DEVICE /dev/sda /dev/sdb /dev/sdc
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR craftinity@craftinity.com
# definitions of existing MD arrays
# This file was auto-generated on Sun, 04 Dec 2016 18:56:42 +0100
# by mkconf $Id$
ARRAY /dev/md0 metadata=1.2 spares=1 name=hinton:0 UUID=616991f1:dc03795b:8d09b1d4:8393060a
Was ist die Lösung? Ich habe im halben Internet gestöbert und niemand scheint das gleiche Problem zu haben.
Ich habe vor ein paar Tagen genau dieselbe Frage zu Serverfault hinzugefügt (keine Antwort). Ich entschuldige mich, wenn ich damit gegen die Community-Regeln von Stack Exchange verstoßen habe.