Zyxel Deutschland Forum - Herzlich Willkommen!

Für Support Anfragen nutzen Sie http://support.zyxel.eu oder als Fachhändler http://partner.zyxel.eu
Aktuelle Zeit: Montag 24. September 2018, 07:37

Alle Zeiten sind UTC + 1 Stunde [ Sommerzeit ]



 

Forumsregeln


Achtung: FFP ist eine Zusatzanwendung, für die ZyXEL keinen Support übernimmt!
Sämtliche Support Anfragen zu FFP Produkten werden nicht bearbeitet.
Bei Fragen zu FFP wenden Sie sich am besten in Englisch an unser Forum oder an http://forum.nas-central.org/viewforum.php?f=21



Ein neues Thema erstellen Auf das Thema antworten  [ 106 Beiträge ]  Gehe zu Seite Vorherige  1, 2, 3, 4, 5, 6, 7, 8  Nächste
Autor Nachricht
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Donnerstag 6. September 2018, 20:34 
Offline
Experte

Registriert: Dienstag 19. Mai 2015, 09:25
Beiträge: 699
Wohnort: Germany / Cologne
Jetzt legen wir ein leeres Verzeichnis an um nachher die Datenpartition zu mounten
Code:
mkdir /mnt/raid5

Da unser ext2/3/4 innerhalb eines LVMs ist und ich immer noch weiss wie ich damit umzugehen habe,
machen wir die harte Tour,
hoffentlich habe wir keine Lücken und/oder ein nicht zusammenhängendes LVM Volume

Wir skippen einfach den LVM Kram
Code:
losetup -f /dev/md2 -o $((512*262144))

Wenn jetzt kein Loop-Device vohanden *war*, haben wir jetzt ein
"neues" /dev/loop0 Device
Das bei einem Offset von 512*262144 Bytes von /dev/md2 beginnt.
... ist auf der zweiten Platte und sieht irgendwie nach "Optimierung" aus

So jetzt mal ein
Code:
e2fsck -n /dev/loop0

machen.
Wie gehabt mache ich nur einen READ-ONLY test.

Es sollten nicht viele Fehler kommen.
Wenn "Superblock missing" o.ä. kommt habe ich ein leichtes Problem und muss
*würfeln*
dann mal
Code:
hexdump -C /dev/loop2 | head -n 20

machen, ich will erstmal sehen ob ich mich nicht verrechnet habe in den Offsets.

Wenn kaum Fehler sind (wie gesagt kaum ist *relativ*, kann auch 100 Zeilen sein)

Bitte dann
Code:
mount /dev/loop0 /mnt/raid5 -r

danach
Code:
ls /mnt/raid5

und sich (hoffentlich) freuen.

_________________
Linux Kernel Developer
Lots of stuff attached to serial console
https://github.com/ulli-kroll


Nach oben
 Profil  
 
 
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Donnerstag 6. September 2018, 23:53 
Offline
interessiertes Mitglied

Registriert: Samstag 8. August 2015, 10:50
Beiträge: 50
Das kam bei mir dabei jetzt raus:

Code:
~ # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active raid5 sdc3[2] sdb3[1] sda3[0]
      17569172928 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/3] [UUU_]

md1 : active raid1 sdc2[6] sdb2[5] sda2[4] sdd2[7]
      1998784 blocks super 1.2 [4/4] [UUUU]

md0 : active raid1 sdc1[6] sdb1[5] sda1[4] sdd1[7]
      1997760 blocks super 1.2 [4/4] [UUUU]

unused devices: <none>
~ # mkdir /mnt/raid5
~ # losetup -f /dev/md2 -o $((512*262144))
BusyBox v1.19.4 (2018-05-22 01:23:15 CST) multi-call binary.

Usage: losetup [-o OFS] LOOPDEV FILE - associate loop devices
        losetup -d LOOPDEV - disassociate
        losetup [-f] - show

~ # e2fsck -n /dev/loop0
e2fsck 1.42.12 (29-Aug-2014)
Warning!  /dev/loop0 is mounted.
/dev/loop0: clean, 6975/36864 files, 130630/147456 blocks
~ # hexdump -C /dev/loop2 | head -n 20
~ # mount /dev/loop0 /mnt/raid5 -r
~ # ls /mnt/raid5
bin         etc         lib         lost+found  sbin        tmp.tar.gz  usr         var
~ #


Nach oben
 Profil  
 
 
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Samstag 8. September 2018, 16:40 
Offline
Experte

Registriert: Dienstag 19. Mai 2015, 09:25
Beiträge: 699
Wohnort: Germany / Cologne
Oh eine ganz alte busybox ...

Das ist, das wenn man an zu vielen System ist,
und auf die falsche (lokale) busybx schaut .

Mach mal bitte ein

Code:
ls /dev/loop*

oder
Code:
losetup -f

_________________
Linux Kernel Developer
Lots of stuff attached to serial console
https://github.com/ulli-kroll


Nach oben
 Profil  
 
 
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Sonntag 9. September 2018, 10:44 
Offline
interessiertes Mitglied

Registriert: Samstag 8. August 2015, 10:50
Beiträge: 50
Hier das Ergebnis:
Code:
~ # ls /dev/loop*
/dev/loop-control  /dev/loop1         /dev/loop3         /dev/loop5         /dev/loop7
/dev/loop0         /dev/loop2         /dev/loop4         /dev/loop6
~ # losetup -f
/dev/loop1
~ #


Nach oben
 Profil  
 
 
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Sonntag 9. September 2018, 22:01 
Offline
Experte

Registriert: Dienstag 19. Mai 2015, 09:25
Beiträge: 699
Wohnort: Germany / Cologne
Habe mal meine NAS540 gestartet

/dev/loop0
ist für die Firmware ...
OK
Code:
losetup -o $((512*262144)) /dev/loop1 /dev/md2


Dann sollte
Code:
e2fsck -n /dev/loop1

mit wenigen Fehlern kommen

Und mal sehen was zu finden ist ;-)
Code:
mount /dev/loop1 /mnt/raid5 -r

ls -lR /mnt/raid5

_________________
Linux Kernel Developer
Lots of stuff attached to serial console
https://github.com/ulli-kroll


Nach oben
 Profil  
 
 
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Sonntag 9. September 2018, 23:51 
Offline
interessiertes Mitglied

Registriert: Samstag 8. August 2015, 10:50
Beiträge: 50
Huhu, also hier kam was komisches:
Code:
~ # mount /dev/loop1 /mnt/raid5 -r
mount: wrong fs type, bad option, bad superblock on /dev/loop1,
       missing codepage or helper program, or other error

       In some cases useful info is found in syslog - try
       dmesg | tail or so.
~ #


Kann es sein das sich das FS komplett geschrottet hat?


Nach oben
 Profil  
 
 
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Montag 10. September 2018, 11:27 
Offline
Experte

Registriert: Dienstag 19. Mai 2015, 09:25
Beiträge: 699
Wohnort: Germany / Cologne
h0tic3 hat geschrieben:
Kann es sein das sich das FS komplett geschrottet hat?

Das glaube ich weniger ...

das ich im prinzip nur lese Befehle auf das RAID5 und oder LVM volume gemacht habe.
Das einzige was ich auf die schnelle sagen kann das ggf. mein Offset in das LVM nicht richtig ist.

Bitte ein
Code:
hexdump -C /dev/loop1 | head -n 20
[code]

mmm.
Wenn ich mich richtig erinnere habe ich den Offset von der RAID5 Daten innerhalb einer RAID5 Device Partition berechnet.
Das ist falsch, ich bin ja jetzt innerhalb der RAID-Datenpartition
Siehe
[code]RAID Device      ! RAID-Data
      ! Offset
      ! $((512*262144))
      !
/dev/sda3    ! LVM Superblock      
/dev/sdb3   ! ext2/ext3/ext4 Superblock   
/dev/sbc3   !
/dev/sdd3   !

Obiges ist eine "generelle Ansicht" mit vier Partitionen

Der Abstand zwischen LVM und ext2/3/4 steht auch im RAID5 Superblock, war irgendwas mit Chnksize

_________________
Linux Kernel Developer
Lots of stuff attached to serial console
https://github.com/ulli-kroll


Nach oben
 Profil  
 
 
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Montag 10. September 2018, 12:32 
Offline
interessiertes Mitglied

Registriert: Samstag 8. August 2015, 10:50
Beiträge: 50
Bringt dich das weiter? Oder habe ich einen Befehl vergessen?
Code:
~ # hexdump -C /dev/loop1 | head -n 20
00000000  f7 63 41 c9 ac e5 df 40  ce 06 44 a1 88 58 24 95  |.cA....@..D..X$.|
00000010  cc 82 b3 52 28 4a c9 e8  24 11 85 e0 95 21 53 78  |...R(J..$....!Sx|
00000020  15 00 2b c5 32 12 35 e3  41 66 60 87 1c 3f ad e1  |..+.2.5.Af`..?..|
00000030  62 cb 10 64 e5 61 28 04  30 a9 a7 41 86 df 04 96  |b..d.a(.0..A....|
00000040  3e 90 52 95 c5 d0 5c f2  84 a0 ac 38 0e c8 af fd  |>.R...\....8....|
00000050  37 e6 a0 7a a9 9b 8f 55  b5 d3 ad 62 a4 41 b7 83  |7..z...U...b.A..|
00000060  c9 81 c5 0c 30 81 45 16  14 b2 5f b9 ff ff e3 99  |....0.E..._.....|
00000070  a5 35 45 0a 86 24 c8 5c  6a ad 65 f5 82 e0 00 00  |.5E..$.\j.e.....|
00000080  01 64 05 db 0a 0d 36 35  6e 9f aa 5f 69 4b b4 c4  |.d....65n.._iK..|
00000090  14 ae 11 1d a3 90 dd 86  a0 67 15 6f bb 30 be 4a  |.........g.o.0.J|
000000a0  df 11 dd 0e 14 0a b8 fe  52 34 a3 54 cb cd a8 84  |........R4.T....|
000000b0  42 0c b0 30 df bd 66 3a  52 b2 e5 e4 51 38 52 42  |B..0..f:R...Q8RB|
000000c0  d3 7c 8d 70 62 ee b8 d3  61 f7 f1 12 22 7c 92 6e  |.|.pb...a..."|.n|
000000d0  6c 3f 9a f0 31 57 a8 c6  bb 9e da d5 7f ff ff ff  |l?..1W..........|
000000e0  ff ff b9 ce 85 3d 3f ff  f3 0b 20 1c 22 62 89 1a  |.....=?... ."b..|
000000f0  38 16 15 db 70 04 e0 00  0b 0c 07 52 6b a3 03 9b  |8...p......Rk...|
00000100  89 43 08 47 06 1a 20 4a  14 61 0c 8a 8d 4a 94 e3  |.C.G.. J.a...J..|
00000110  7d 4b 44 d7 44 60 46 57  1a b0 6f fa 95 c1 2d 51  |}KD.D`FW..o...-Q|
00000120  77 97 b1 3a 12 38 b7 0c  8d 5f 21 b3 91 62 0c b2  |w..:.8..._!..b..|
00000130  9a e1 61 6a 66 80 d6 48  c1 61 97 5d a3 3d 0e 23  |..ajf..H.a.].=.#|
~ #


Nach oben
 Profil  
 
 
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Montag 10. September 2018, 13:02 
Offline
Experte

Registriert: Dienstag 19. Mai 2015, 09:25
Beiträge: 699
Wohnort: Germany / Cologne
So grade mal eine relocation gemacht ..
Und dabei über das Problem mit dem e2fs Superblock gedacht.

Mein Offset ist falsch
Laut mdadm --examine habe ich eine Chunksize von 64K(Byte)
Erstmal den Sprung in das RAID5 Device löschen
Code:
losetup -d /dev/loop1


Dann mit dem neuen Offset von 64K in das RAID Device sprjngen
Code:
losetup -o $((64*1024)) /dev/loop1 /dev/md2


Wenn du will kannst du ein
Code:
hexdump -C /dev/loop1 | head -n 20

machen
es sollte dann so was wie
Code:
00000430  9b 04 ec 57 30 00 ff ff  53 ef 01 00 01 00 00 00  |...W0...S.......|     <- 53 ef

kommen
Die Position von 53 und ef sind wichtig

Wie gehabt mal kurz das FS testen
Code:
e2fsck -n /dev/loop1


Dann
Code:
mount /dev/loop1 /mnt/raid5 -r

Das
Zitat:
mount: wrong fs type, bad option, bad superblock on /dev/loop1,
missing codepage or helper program, or other error

sollte jetzt nicht mehr auftauchen.

_________________
Linux Kernel Developer
Lots of stuff attached to serial console
https://github.com/ulli-kroll


Nach oben
 Profil  
 
 
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Montag 10. September 2018, 17:44 
Offline
interessiertes Mitglied

Registriert: Samstag 8. August 2015, 10:50
Beiträge: 50
Also im Hex sieht es so aus wie du es beschrieben hast. Das beruhigt mich extrem. ;)
Code:
~ # hexdump -C /dev/loop1 | head -n 20
00000000  00 00 00 00 00 00 00 00  00 00 00 00 00 00 00 00  |................|
*
00000400  00 90 e8 0a d0 5b 44 57  00 00 00 00 4d 92 f5 4c  |.....[DW....M..L|
00000410  e1 02 e8 0a 00 00 00 00  02 00 00 00 02 00 00 00  |................|
00000420  00 80 00 00 00 80 00 00  00 10 00 00 b5 bd e7 57  |...............W|
00000430  9b 04 ec 57 30 00 ff ff  53 ef 01 00 01 00 00 00  |...W0...S.......|
00000440  57 d6 42 55 00 00 00 00  00 00 00 00 01 00 00 00  |W.BU............|
00000450  00 00 00 00 0b 00 00 00  00 01 00 00 3c 00 00 00  |............<...|
00000460  42 02 00 00 7b 00 00 00  ac 6d 9e ff 96 b9 44 b5  |B...{....m....D.|
00000470  9e 3d 59 8c 21 ff a8 9d  00 00 00 00 00 00 00 00  |.=Y.!...........|
00000480  00 00 00 00 00 00 00 00  2f 69 2d 64 61 74 61 2f  |......../i-data/|
00000490  32 36 39 36 64 33 65 61  00 00 00 00 00 00 00 00  |2696d3ea........|
000004a0  00 00 00 00 00 00 00 00  00 00 00 00 00 00 00 00  |................|
*
000004c0  00 00 00 00 00 00 00 00  00 00 00 00 00 00 a2 02  |................|
000004d0  00 00 00 00 00 00 00 00  00 00 00 00 00 00 00 00  |................|
000004e0  08 00 00 00 00 00 00 00  00 00 00 00 e8 90 ea 3f  |...............?|
000004f0  6f 11 45 b1 be a2 31 4a  10 d2 87 74 01 01 00 00  |o.E...1J...t....|
00000500  0c 00 00 00 00 00 00 00  57 d6 42 55 0a f3 02 00  |........W.BU....|
00000510  04 00 00 00 00 00 00 00  00 00 00 00 ff 7f 00 00  |................|
~ #


Der Check ergab folgendes:
Code:
~ # e2fsck -n /dev/loop1
e2fsck 1.42.12 (29-Aug-2014)
ext2fs_check_desc: Corrupt group descriptor: bad block for block bitmap
e2fsck: Group descriptors look bad... trying backup blocks...
e2fsck: Bad magic number in super-block while using the backup blockse2fsck: going back to original superblock
Superblock has an invalid journal (inode 8).
Clear? no

e2fsck: Illegal inode number while checking ext3 journal for /dev/loop1

/dev/loop1: ********** WARNING: Filesystem still has errors **********

~ #


Der Mount befehl hat mein NAS540 rebooten lassen. Was vorher nie passiert ist. Das, würde ich schätzen, ist wesentlich besser. Richtig?

Jetzt rödelt mein NAS540 erstmal wild rum. Ich warte mal etwas ab.

Scheint aber einen gewaltigen Schritt vorwärts gegangen zu sein. ;)


Nach oben
 Profil  
 
 
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Montag 10. September 2018, 17:58 
Offline
interessiertes Mitglied

Registriert: Samstag 8. August 2015, 10:50
Beiträge: 50
Jetzt piept mein NAS die ganze Zeit. Die Ordner sind wieder unter Windows da. Geilo! Nur ich kann nichts kopieren. Muss ich noch was machen?

Erstmal richtig heftig vielen lieben Dank!!!!!


Nach oben
 Profil  
 
 
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Montag 10. September 2018, 18:03 
Offline
interessiertes Mitglied

Registriert: Samstag 8. August 2015, 10:50
Beiträge: 50
OK, jetzt hat mein NAS einen reboot gemacht. Einfach so. Ist das normal?


Nach oben
 Profil  
 
 
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Dienstag 11. September 2018, 00:01 
Offline
interessiertes Mitglied

Registriert: Samstag 8. August 2015, 10:50
Beiträge: 50
Ich habe mein NAS jetzt mal ein paar Stunden in Ruhe gelassen. Aber es piept dauernd und macht nen reboot. Dann ist es wieder an und piept. Dann wieder reboot. Und das die ganze Zeit. Jetzt ist erstmal Ruhe da ich es ausgeschaltet habe. Kam leider auch nicht mehr auf das Web Interface drauf. War immer am einloggen. Und was mir noch aufgefallen ist: Die ganzen Ordner sind alle noch vorhanden. Jedoch sind sehr viele komplett leer und ich kann fast gar keine Dateien öffnen. Kann man da eventuell noch was machen? ODer habe ich dann jetzt halt leider einfach pech gehabt?


Nach oben
 Profil  
 
 
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Dienstag 11. September 2018, 07:20 
Offline
Mitglied

Registriert: Montag 25. April 2016, 14:09
Beiträge: 13
Das piepen kommt dadurch, dass das RAID degradiert (degraded, mindestens eine Platte fehlt) ist. Nach nem login und der Bestätigung der Meldung das es degraded ist, hört das piepen wieder auf. Zu dem Problem mit dem Login, als ich vor kurzem bei meinem NAS die Platten wechseln wollte hatte ich das gleiche Problem. Erste Platte war getauscht und RAID5 wieder repariert, dann die zweite Platte getauscht und bam nach 3min Stillstand, piepen und kein Login mehr möglich. Anmeldeseite kommt aber nach Anmeldung rödelt er die ganze Zeit. Ich konnte lediglich per ssh drauf und das NAS drüber rebooten. Davor noch fix bei "cat /proc/mdstat" vorbeigeschaut und gesehen dass nicht nur die zu tauchende zweite Platte "missing" ist, sondern auch die Erste...zum Glück war die Platte nach nem reboot wieder da aber sie hatte an zwei Stellen Lesefehler und einen Schreibfehler die sich vorher noch nicht geäußert hatten. Backup war zum Glück vollständig aber das eine neue Platte so aussteigt...

Was deine Daten angeht bist du ja wie es Aussieht bei @ElektromAn an der richtigen Adresse. Du hast ja noch die Möglichkeit zu "würfeln" und die 3. mit der 4. Platte tauschen. Aber da mische ich mich lieber nicht ein, da stecke ich nicht tief genug drin.


Nach oben
 Profil  
 
 
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Dienstag 11. September 2018, 10:38 
Offline
Experte

Registriert: Dienstag 19. Mai 2015, 09:25
Beiträge: 699
Wohnort: Germany / Cologne
h0tic3 hat geschrieben:
Ich habe mein NAS jetzt mal ein paar Stunden in Ruhe gelassen. Aber es piept dauernd und macht nen reboot. Dann ist es wieder an und piept. Dann wieder reboot. Und das die ganze Zeit. Jetzt ist erstmal Ruhe da ich es ausgeschaltet habe. Kam leider auch nicht mehr auf das Web Interface drauf. War immer am einloggen. Und was mir noch aufgefallen ist: Die ganzen Ordner sind alle noch vorhanden. Jedoch sind sehr viele komplett leer und ich kann fast gar keine Dateien öffnen. Kann man da eventuell noch was machen? ODer habe ich dann jetzt halt leider einfach pech gehabt?

Was heißt jetzt "einloggen" ??
Per SSH oder Web ??

Wie bist du auf die "Kiste" gegangen ?
Hast du die Daten geholt per SMB aka Samba oder Web ??

Der mount Befehl alleine hat da keinen Reset ausgelöst.
Da dürfte ein Hintergrunddienst am laufen gewesen sein ...

Probiere es nur mit SSH.
Das Webinterface würde ich liegen lassen

Deacon hat geschrieben:
Davor noch fix bei "cat /proc/mdstat" vorbeigeschaut und gesehen dass nicht nur die zu tauchende zweite Platte "missing" ist, sondern auch die Erste...zum Glück war die Platte nach nem reboot wieder da aber sie hatte an zwei Stellen Lesefehler und einen Schreibfehler die sich vorher noch nicht geäußert hatten. Backup war zum Glück vollständig aber das eine neue Platte so aussteigt...

Was deine Daten angeht bist du ja wie es Aussieht bei @ElektromAn an der richtigen Adresse. Du hast ja noch die Möglichkeit zu "würfeln" und die 3. mit der 4. Platte tauschen. Aber da mische ich mich lieber nicht ein, da stecke ich nicht tief genug drin.

Nein zweite Platte mit vieter Platte ...

Obwohl eigentlich die vierte Platte nach meiner Ansicht mal eine "zweite" war und die erste zweite herausgekickt worden ist.

_________________
Linux Kernel Developer
Lots of stuff attached to serial console
https://github.com/ulli-kroll


Nach oben
 Profil  
 
 
Beiträge der letzten Zeit anzeigen:  Sortiere nach  
Ein neues Thema erstellen Auf das Thema antworten  [ 106 Beiträge ]  Gehe zu Seite Vorherige  1, 2, 3, 4, 5, 6, 7, 8  Nächste

Alle Zeiten sind UTC + 1 Stunde [ Sommerzeit ]


Wer ist online?

Mitglieder: Google [Bot]


Du darfst keine neuen Themen in diesem Forum erstellen.
Du darfst keine Antworten zu Themen in diesem Forum erstellen.
Du darfst deine Beiträge in diesem Forum nicht ändern.
Du darfst deine Beiträge in diesem Forum nicht löschen.
Du darfst keine Dateianhänge in diesem Forum erstellen.

Gehe zu:  
Powered by phpBB® Forum Software © phpBB Group
Deutsche Übersetzung durch phpBB.de


Impressum


Hubwagen  - Hubtisch  - Hochhubwagen  - günstige Hubwagen  - Hubwagen  - Hubtisch  - Scherenhubtische  - günstige Kehrmaschinen