Gerät bereits gemountet oder Ressource ist ausgelastet


9

Problem :::

Ich installiere Redhat 5.10 x64 auf einem Server mit fehlerhafter Festplatte. Ich habe die alte fehlerhafte Festplatte entfernt und eine neue mit 500 GB Kapazität installiert. Nach der Installation muss ich einige Daten von der alten Festplatte unter / u001 auf die neue Festplatte kopieren. Also habe ich alte Festplatte (320 GB) mit Server verbunden. Es wird angezeigt, fdisk -laber wenn ich versuche, mit zu mounten

sudo mount / dev / sdb2 oder / dev / sdb5 heißt es

Hinweis: Auf der alten Festplatte war auch das alte Betriebssystem installiert, wie Sie unter fdisk -l
/ dev / sda = Neue Festplatte
/ dev / sdb = Alte Festplatte sehen können

Gerät bereits gemountet oder Ressource ist ausgelastet

Disk /dev/sda: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           1          25      200781   83  Linux
/dev/sda2              26       10346    82903432+  8e  Linux LVM
/dev/sda3           10347       11390     8385930   82  Linux swap / Solaris
/dev/sda4           11391       60801   396893857+   5  Extended
/dev/sda5           11391       60801   396893826   8e  Linux LVM

Disk /dev/sdb: 320.0 GB, 320072933376 bytes
255 heads, 63 sectors/track, 38913 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1   *           1          13      104391   83  Linux
/dev/sdb2              14       10242    82164442+  8e  Linux LVM
/dev/sdb3           10243       11286     8385930   82  Linux swap / Solaris
/dev/sdb4           11287       38888   221713065    5  Extended
/dev/sdb5           11287       38888   221713033+  8e  Linux LVM
[admin@testsrv ~]$ sudo mount /dev/sdb2 /media/test/
mount: /dev/sdb2 already mounted or /media/test/ busy
[admin@testsrv ~]$ sudo mount /dev/sdb5 /media/test/
mount: /dev/sdb5 already mounted or /media/test/ busy

Mount Ergebnis :::

/dev/mapper/VolGroup00_root-LogVol00 on / type ext3 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw)
devpts on /dev/pts type devpts (rw,gid=5,mode=620)
/dev/mapper/VolGroup00_u001-LogVol00 on /u001/app/oracle type ext3 (rw)
/dev/sda1 on /boot type ext3 (rw)
tmpfs on /dev/shm type tmpfs (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)

PVDISPLAY :: Ausgabe

    sudo pvdisplay
      --- Physical volume ---
      PV Name               /dev/sda5
      VG Name               VolGroup00_u001
      PV Size               378.51 GB / not usable 7.63 MB
      Allocatable           yes (but full)
      PE Size (KByte)       32768
      Total PE              12112
      Free PE               0
      Allocated PE          12112
      PV UUID               E2ibW6-uaDJ-7FMA-OZS0-sApR-DNwK-0jO3Ob

      --- Physical volume ---
      PV Name               /dev/sda2
      VG Name               VolGroup00_root
      PV Size               79.06 GB / not usable 392.50 KB
      Allocatable           yes
      PE Size (KByte)       32768
      Total PE              2530
      Free PE               1
      Allocated PE          2529
      PV UUID               YSGQwx-yIsO-CR0C-4G6r-GI9O-nUya-gE22yk

LVMDISkSCAN :: Output

sudo lvmdiskscan
  /dev/ramdisk                                                        [       16.00 MB]
  /dev/root                                                           [       79.03 GB]
  /dev/ram                                                            [       16.00 MB]
  /dev/sda1                                                           [      196.08 MB]
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45   [      297.90 GB]
  /dev/ram2                                                           [       16.00 MB]
  /dev/sda2                                                           [       79.06 GB] LVM physical volume
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p1 [      101.94 MB]
  /dev/ram3                                                           [       16.00 MB]
  /dev/sda3                                                           [        8.00 GB]
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p2 [       78.36 GB] LVM physical volume
  /dev/ram4                                                           [       16.00 MB]
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p3 [        8.00 GB]
  /dev/ram5                                                           [       16.00 MB]
  /dev/sda5                                                           [      378.51 GB] LVM physical volume
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p5 [      211.44 GB] LVM physical volume
  /dev/ram6                                                           [       16.00 MB]
  /dev/VolGroup00_ora/LogVol00                                        [      211.44 GB]
  /dev/ram7                                                           [       16.00 MB]
  /dev/VolGroup00_u001/LogVol00                                       [      378.50 GB]
  /dev/ram8                                                           [       16.00 MB]
  /dev/ram9                                                           [       16.00 MB]
  /dev/ram10                                                          [       16.00 MB]
  /dev/ram11                                                          [       16.00 MB]
  /dev/ram12                                                          [       16.00 MB]
  /dev/ram13                                                          [       16.00 MB]
  /dev/ram14                                                          [       16.00 MB]
  /dev/ram15                                                          [       16.00 MB]
  /dev/sdb1                                                           [      101.94 MB]
  /dev/sdb2                                                           [       78.36 GB]
  /dev/sdb3                                                           [        8.00 GB]
  /dev/sdb5                                                           [      211.44 GB]
  3 disks
  25 partitions
  0 LVM physical volume whole disks
  4 LVM physical volumes

Was ist die Ausgabe von mount?
csny

Können Sie die Ausgabe von findmntoder mountanzeigen?
Spack

Auch die Ausgabe von lsof +D /media/test/wäre hilfreich
csny

1
Das Problem ist, dass die alte Festplatte keine einfachen Dateisysteme auf den Partitionen hat, sondern eine LVM-Schicht zwischen dem Gerät und den Dateisystemen, wie der Partitionstyp zeigt. Stellen Sie sicher, dass auf Ihrem neuen System LVM-Tools installiert sind, starten Sie die alte Festplatte neu und überprüfen Sie lvdisplay, welche LVM-Geräte erkannt werden. Sie sollten stattdessen auf diese zugreifen können /dev/sdbX.
Wurtel

2
An alle Helfer, Entschuldigung, es war nur mein Fehler. Ich habe völlig vergessen, dass dies lvm-Partitionen waren. Wenn Sie mit mount / dev / mapper / VG_u001 / media / test @wurtel mounten müssen, können Sie feststellen, mit welchen Tools die Dateien von LVMs wiederhergestellt werden können.
OmiPenguin

Antworten:


2

Bereits in 5.x verwendete RHEL standardmäßig LVM. Sie müssen zuerst einige Schritte ausführen, bevor Sie LVM-Volumes bereitstellen können.

Wenn Sie auf der neuen Festplatte denselben VGs-Namen wie auf der alten Festplatte verwendet haben, haben Sie ein kleines Problem: Sie haben zwei VGs mit demselben Namen. Um die zu manipulierenden VGs (dh die aktivierte) eindeutig zu identifizieren /dev/sdb, benötigen Sie die VG-UUIDs. Lauf:

# pvs -o +vg_uuid

um alle erkannten LVM-PVs einschließlich ihrer VG-UUIDs aufzulisten. Außerdem wird der VG-Name jeder Partition angezeigt, sodass Sie sehen können, ob Namenskonflikte vorliegen oder nicht.

LVM ist im Großen und Ganzen intelligent genug, um Ihre aktive VG-Konfiguration nicht durcheinander zu bringen, es sei denn, Sie geben sich wirklich alle Mühe, sie zu verwirren. Wenn der oben genannte pvsBefehl nichts anzeigt /dev/sdb, führen Sie ihn aus vgscanund versuchen Sie es erneut.

Sobald Sie die VG-UUIDs kennen, können Sie mit dem Befehl vgrename alle widersprüchlichen VGs umbenennen. Wenn keine Namenskonflikte vorliegen, können Sie mit fortfahren vgchange.

(Um die LV (s) in einer VG zu mounten, müssen Sie die VG aktivieren, und eine VG wird nicht aktiviert, wenn ihr Name mit einer bereits vorhandenen VG in Konflikt steht.)

Der Befehl zum Umbenennen einer VG sieht folgendermaßen aus:

vgrename Zvlifi-Ep3t-e0Ng-U42h-o0ye-KHu1-nl7Ns4 new_name_for_vg

Dabei ist die Zvlifi-...Alphabetsuppe die VG-UUID, und der andere Parameter ist nur der neue Name für diese VG.

Sobald die VG-Namenskonflikte gelöst sind (oder wenn überhaupt keine Konflikte vorliegen), müssen Sie die VG (s) aktivieren /dev/sdb. Mit diesem Befehl können Sie einfach alle nicht aktivierten VGs aktivieren, die LVM sieht:

vgchange -ay

Wenn Sie eine VG aktivieren, werden die Gerätenamen (Links) aller darin enthaltenen LVs als angezeigt /dev/mapper/<VG name>-<LV name>. (Auch /dev/<VG name>/<LV name>aus Gründen der Legacy-Kompatibilität.)

Zu diesem Zeitpunkt können Sie sie wie gewohnt mounten.


Das hat bei mir funktioniert! Ich bekam den bereits gemounteten oder ausgelasteten Fehler, also tat ich es vgchange -ayund konnte dann mount -t ext4 /dev/mapper/my--server--vg-root /tmp/myserver
Folgendes

1

Wenn z

mount /dev/sda1 /mnt/tmp

druckt

mount: /dev/sda1 is already mounted or /mnt/tmp busy

Überprüfen Sie, ob mit diesem Gerät ein Prozess ausgeführt wird (/ dev / sda1).

Es ist oft ein fsck-Prozess, der beim Systemstart automatisch ausgeführt wird. Sie können es schnell überprüfen, zB durch

ps aux | grep sda1

Das war genau die Wurzel meines Problems, danke! (Ich hoffe immer noch, dass die Festplatte nach Abschluss der fsck-Prüfung korrekt gemountet wird)
Franck,

0

Ich habe mich einer solchen Situation gestellt. Die Erfahrung und Lösung wird in meinem Blog erzählt .

Das Snippet ist da:

Fehler: mount: / dev / mapper / STORBCK-backup bereits gemountet oder / STORBCK beschäftigt?

Diagnose: Wenn wir versuchen, den / STORBCK FS zu mounten, wird der oben genannte Fehler angezeigt.

Lösung: 1. Da der andere FS schreibgeschützt wurde, habe ich den iscsi-Dienst gestoppt / gestartet. Es wurde erfolgreich beim Gerät angemeldet. /etc/init.d/iscsi stop /etc/init.d/iscsi start https://manastri.blogspot.in/2016/11/mount-devmapperstorbck-backup-already.html

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.