Ich habe versucht, eine große LVM-Festplatte in 14.04 64-Bit-Desktop mit 3X500GB SATA-Laufwerken einzurichten. Es ist während der Installation mit Gerätefehlern fehlgeschlagen. Ich habe einen Link gefunden, der angibt, dass Laufwerke mit mehr als 256 G die Grenze der Ausdehnung darstellen, aber ich weiß nicht, ob dies hier zutrifft.
Ich habe auch versucht, RAID einzurichten (RAID 1 / Boot 300 MB, RAID 0 Swap 2 GB und / RAID 5 alles andere. Weitere Fehler.
$ sudo apt-get install -y mdadm
Über die Option "Ubuntu ohne Installation testen" auf der Live-CD können Sie MDADM weiterhin installieren. Immer noch kein Glück. Die GParted-Erkennung scheint ein wenig re-Tahrded zu sein und nimmt einige Volumes in LVM oder einige Volumes in RAID / dev / mdX nicht auf, es sei denn, alles wurde bereits mit einem Dateisystem versehen.
$ sudo mkfs.etx4 / dev / md2
Außerdem stellen die RAID-Konfigurationen jetzt noch mehr Herausforderungen. MDADM scheint nicht mehr zur / target / usr / sbin-Paketliste der Installation hinzugefügt zu werden, und es dort zu installieren, damit die Installation beim Neustart überhaupt beginnt, wäre eine große Tortur, für die ich einfach keine Zeit oder Geduld mehr habe , nur um herauszufinden, dass einige Stunden später noch nicht mit diesen neuen Windows 8 Performance Hacked Motherboards (UEFI) für ein GRUB-Problem begonnen wurde.
Die Installation von LVM über Ubiquity funktioniert einwandfrei, bis Sie der Root-Partition / (weitere Festplatten hinzufügen müssen. An diesem Punkt haben Sie eine sehr gute Chance, die gesamte Installation in die Luft zu jagen. Die LVM-Größenänderungsvorgänge schlagen weiterhin fehl und Sie landen wieder auf Platz 1 .
Beim Versuch, den 14.04 Server zu installieren, spart Partman den Tag.
Das 14.04 Server-Installationsprogramm wurde hochgefahren, die Architekturen wurden einwandfrei identifiziert, MDADM wurde installiert, Grub wurde auf allen drei Festplatten installiert, und alles funktioniert einwandfrei.
3 Festplatten (500 GB SATA)
Jeweils 3 Partitionen. Alle auf Linux Raid eingestellten Partitionen geben fdisk ein.
RAID 1 / Boot, 300-MB-Partitionen, RAID 0-Swap, 2-GB-Partitionen und RAID 5/500 GB (was noch übrig ist)
$ sudo fdisk -l
Gerätestart
Endblöcke ID System / dev / sda1 2048 616447 307200 83 Linux
/ dev / sda2 616448 4810751 2097152 83 Linux
/ dev / sda3 4810752 976773167 485981208 fd Automatische Erkennung von Linux-RAIDs
Geräte-Boot Start End Blocks ID System
/ dev / sdc1 * 2048 616447 307200 83 Linux
/ dev / sdc2 616448 4810751 2097152 83 Linux
/ dev / sdc3 4810752 976773167 485981208 fd Automatische Erkennung von Linux-Raids
Geräte-Boot-Start-End-Block-
ID System / dev / sdb1 2048 616447 307200 83 Linux
/ dev / sdb2 616448 4810751 2097152 83 Linux
/ dev / sdb3 4810752 976773167 485981208 fd Linux-RAID-Autodetect
...
$ sudo ls / dev / md *
/ dev / md0 / dev / md1 / dev / md2
/ dev / md:
0 1 2
$ sudo mdadm -D / dev / md0
/ dev / md0:
Version: 1.2
Erstellungszeit: Mi Aug 6 13:03:01 2014 RAID-
Level: raid1
Array-Größe: 306880 (299,74 MiB 314,25 MB)
Verwendete Dev-Größe: 306880 (299,74) MiB 314,25 MB)
Schlachtzugsgeräte: 3
Gesamtgeräte: 3
Persistenz: Superblock ist persistent
Update Time : Mon Aug 11 19:51:44 2014
State : clean
Aktive Geräte: 3
Arbeitsgeräte: 3
Fehlerhafte Geräte: 0
Ersatzgeräte: 0
Name : ubuntu:0
UUID : 03a4f230:82f50f13:13d52929:73139517
Events : 19
Nummer Major Minor RaidDevice Status 0 8 1 0 active sync / dev / sda1 1 8 17 1 active sync / dev / sdb1 2 8 33 2 active sync / dev / sdc1
$ sudo mdadm -D / dev / md1 / dev / md1: Version: 1.2 Erstellungszeit: Mi Aug 6 13:03:31 2014 RAID-Level: raid0 Array-Größe: 6289920 (6,00 GiB 6,44 GB) RAID-Geräte: 3 Geräte insgesamt: 3 Persistenz: Superblock ist persistent
Aktualisierungszeit: Mi Aug 6 13:03:31 2014 Status: sauber Aktive Geräte: 3 Arbeitsgeräte: 3 Fehlerhafte Geräte: 0 Ersatzgeräte: 0
Chunk Size : 512K
Name : ubuntu:1
UUID : 9843bdd3:7de01b63:73593716:aa2cb882
Events : 0
Nummer Major Minor RaidDevice Status 0 8 2 0 active sync / dev / sda2 1 8 18 1 active sync / dev / sdb2 2 8 34 2 active sync / dev / sdc2
$ sudo mdadm -D / dev / md2 / dev / md2: Version: 1.2 Erstellungszeit: Mi Aug 6 13:03:50 2014 RAID-Level: raid5 Array-Größe: 971699200 (926.68 GiB 995.02 GB) Verwendete Dev-Größe: 485849600 (463.34 GiB 497.51 GB) Raid-Geräte: 3 Geräte insgesamt: 3 Persistenz: Superblock ist persistent
Aktualisierungszeit: Mo Aug 11 19:54:49 2014 Status: aktiv Aktive Geräte: 3 Arbeitsgeräte: 3 Fehlerhafte Geräte: 0 Ersatzgeräte: 0
Layout : left-symmetric
Chunk Size : 512K
Name : ubuntu:2
UUID : 6ead2827:3ef088c5:a4f9d550:8cd86a1a
Events : 14815
Nummer Major Minor RaidDevice Status 0 8 3 0 active sync / dev / sda3 1 8 19 1 active sync / dev / sdb3 3 8 35 2 active sync / dev / sdc3
$ sudo cat / etc / fstab
'# / etc / fstab: Informationen zum statischen Dateisystem.'
'#'
'# Verwenden Sie' blkid ', um die universell eindeutige Kennung für ein'
'# Gerät zu drucken . Dies kann zusammen mit UUID = verwendet werden, um Geräten eine robustere Bezeichnung zu geben
, die auch dann funktioniert, wenn Festplatten hinzugefügt und entfernt werden. Siehe fstab (5). '
'#'
'#'
'# / war während der Installation auf / dev / md126'
UUID = 2af45208-3763-4cd2-b199-e925e316bab9 / ext4 errors = remount-ro 0 1
'# / boot war während der Installation auf / dev / md125 '
UUID = 954e752b-30e2-4725-821a-e143ceaa6ae5 / boot ext4 default 0 2
'
UUID = fb81179a-6d2d-450d-8d19-3cb3bde4d28a keine sw sw 0 0 tauschen
Laufen jetzt wie ein Vollblut.
Wenn Sie 32-Bit-Hardware verwenden, funktioniert dies für Sie nicht, aber ich denke, dass Soft-RAID zu diesem Zeitpunkt eine schlechtere Wahl ist als nur Single-Disk-LVM für kleinere und JBOD für ältere Geräte .
Vielen Dank.
lvextend -l +100%FREE
erweitern, um den gesamten freien Speicherplatz zu verwenden, anstattlvextend -L+20G