Zyxel Deutschland Forum - Herzlich Willkommen!

Für Support Anfragen nutzen Sie http://support.zyxel.eu oder als Fachhändler http://partner.zyxel.eu
Aktuelle Zeit: Montag 24. September 2018, 07:42

Alle Zeiten sind UTC + 1 Stunde [ Sommerzeit ]



 

Forumsregeln


Achtung: FFP ist eine Zusatzanwendung, für die ZyXEL keinen Support übernimmt!
Sämtliche Support Anfragen zu FFP Produkten werden nicht bearbeitet.
Bei Fragen zu FFP wenden Sie sich am besten in Englisch an unser Forum oder an http://forum.nas-central.org/viewforum.php?f=21



Ein neues Thema erstellen Auf das Thema antworten  [ 106 Beiträge ]  Gehe zu Seite Vorherige  1 ... 3, 4, 5, 6, 7, 8  Nächste
Autor Nachricht
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Dienstag 11. September 2018, 12:00 
Offline
interessiertes Mitglied

Registriert: Samstag 8. August 2015, 10:50
Beiträge: 50
Huhu,

sorry, jetzt bin ich überfordert. Also gestern habe ich, nachdem das RAID wieder zur Verfügung stand, versucht die Daten zu sichern. Habe es erst per Windwos explorer versucht. Soweit ich das mal gelesen habe nutzt der auch das SMB protokoll. Ich hoffe das ich das jetzt auch richtig im Kopf habe. Wenn nicht, gerne berichtigen.

Als ich dort fast nichts kopieren konnte habe ich es mit SSH versucht. Auch dort drüber lies sich nichts kopieren. Sehr viele Ordner sind auch einfach komplett leer oder die Daten lassen sich nicht anzeigen. Kann man da was machen?

Ich habe ja auch noch eine weitere WD Red 6TB hier liegen um eine defekte austauschen zu können. Die liegt ja im Prinzip erstmal "auf halde" Könnte man damit versuchen das sich das RAID wieder repariert und ich dann an alle Daten ran komme?

Ich bin echt sau froh das ich wieder Zugriff habe, aber die Daten sind irgendwie trotzdem nicht so da wie vorher. Das verwirrt mich zusätzlich.


Nach oben
 Profil  
 
 
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Dienstag 11. September 2018, 13:19 
Offline
Mitglied

Registriert: Montag 25. April 2016, 14:09
Beiträge: 13
ElektromAn hat geschrieben:
Nein zweite Platte mit vieter Platte ...

Obwohl eigentlich die vierte Platte nach meiner Ansicht mal eine "zweite" war und die erste zweite herausgekickt worden ist.


Ich meinte dass man die sdc als missing setzt und das Raid mit a b und d herstellt. Aber ich will mich da auch nicht zu sehr einmischen. Du bist da mehr im Thema drin als ich :respekt: :zustimmen:

Was @h0tic3 meinte war, das er über web nicht mehr draufgekommen ist als das NAS die ganze Zeit gepiept hat. Das Phänomen hatte ich auch als bei mir 2 von 3 Platten nicht da waren. Per SSH/telnet kommt man trotzdem noch auf die Box.


Nach oben
 Profil  
 
 
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Dienstag 11. September 2018, 18:15 
Offline
Experte

Registriert: Dienstag 19. Mai 2015, 09:25
Beiträge: 699
Wohnort: Germany / Cologne
Deacon hat geschrieben:
Ich meinte dass man die sdc als missing setzt und das Raid mit a b und d herstellt. Aber ich will mich da auch nicht zu sehr einmischen. Du bist da mehr im Thema drin als ich :respekt: :zustimmen:

Keine Ahnung ;-)
Das Problem ich brauche nur die Zahlen und kann mir die Sache als "Bild" im Kopf darstellen.

Es dauert halt seine Zeit/Jahre, bis das geht ..
Bzw. ich habe es schon zu C64 Zeiten gemacht.
Deacon hat geschrieben:
[
Was @h0tic3 meinte war, das er über web nicht mehr draufgekommen ist als das NAS die ganze Zeit gepiept hat. Das Phänomen hatte ich auch als bei mir 2 von 3 Platten nicht da waren. Per SSH/telnet kommt man trotzdem noch auf die Box.

Wenn dem der Fall sein sollte
mach' bitte mal ein
Code:
hdparm -y /dev/sd[a-c]

das legt die drei *validen* Platten schlafen
Keine Angst mit den Daten, da ist ein Puffer bzw. die laufen wieder an.

Kannst du merken ob die Platte im vierten Slot am laufen ist ?
ggf.vorher nach prüfern.

Mir geht es auf den Senkel ca 10 TB über das Netzwerk zu kopien.
Und wie groß sind deine Backupplatten ?
Dateisystem auf den Backupplattten ist NTFS ?

_________________
Linux Kernel Developer
Lots of stuff attached to serial console
https://github.com/ulli-kroll


Nach oben
 Profil  
 
 
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Mittwoch 12. September 2018, 09:28 
Offline
interessiertes Mitglied

Registriert: Samstag 8. August 2015, 10:50
Beiträge: 50
OK, command ausgeführt.

Die ersten drei Platten sind jetzt im suspend. Das NAS piept noch immer wie kurz vorm sterben. Die vierte Platte läuft weiterhin, durch berührung festgestellt.

Meine externe 5TB Platte ist NTFS. Logisch bei der Größe. ExFAT wäre aber wohl auch OK. Aber um die Datenträger für das Backup brauchste dir keine Gedanken machen. Die kannste komplett außen vor lassen. Wenn ich kompletten zugriff habe und alles komplett da ist werde ich die HDD's direkt ans NAS klemmen um die Daten zu sichern. Das auch direkt per SSH-Client.

Nur das Piepen nervt halt und das ich nicht komplett an meine Daten komme.


Nach oben
 Profil  
 
 
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Mittwoch 12. September 2018, 09:33 
Offline
interessiertes Mitglied

Registriert: Samstag 8. August 2015, 10:50
Beiträge: 50
Jetzt habe ich es auch mal getestet die vierte Platte auch in den Suspend zu setzen und es piept trotzdem weiter.
Ich könnte noch den speaker abklemmen, der hat auch voll die schankende Frequenz. Ganz schlimm und fies.


Nach oben
 Profil  
 
 
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Mittwoch 12. September 2018, 10:42 
Offline
Open Source Hero

Registriert: Dienstag 24. Juni 2008, 10:33
Beiträge: 2274
h0tic3 hat geschrieben:
es piept trotzdem weiter.
It is possible that that stops if you rename buzzerc:
Code:
~#: buzzerc -h

Usage: buzzerc [-h] [-s] [-k] [-t SEC]

  -h         Help menu.
  -t         Lasting time in seconds. The range is 1 to 30 seconds.
             The value over 30 sec is treated as FOREVER.
  -s         Stop the buzzing sound.
  -k         Kill the buzzer daemon.

So
Code:
buzzerc -s && mv /sbin/buzzerc /sbin/buzzerc.old
After a reboot buzzerc will be back.


Nach oben
 Profil  
 
 
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Mittwoch 12. September 2018, 12:22 
Offline
interessiertes Mitglied

Registriert: Samstag 8. August 2015, 10:50
Beiträge: 50
It worked. Thank you. Now I can leave the NAS turned on and won't get crazy.^^


Nach oben
 Profil  
 
 
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Donnerstag 13. September 2018, 10:49 
Offline
Experte

Registriert: Dienstag 19. Mai 2015, 09:25
Beiträge: 699
Wohnort: Germany / Cologne
h0tic3 hat geschrieben:
OK, command ausgeführt.
Die ersten drei Platten sind jetzt im suspend. Das NAS piept noch immer wie kurz vorm sterben. Die vierte Platte läuft weiterhin, durch berührung festgestellt.

War das die Platte im ganz rechten Slot ??
h0tic3 hat geschrieben:
Meine externe 5TB Platte ist NTFS. Logisch bei der Größe. ExFAT wäre aber wohl auch OK. Aber um die Datenträger für das Backup brauchste dir keine Gedanken machen. Die kannste komplett außen vor lassen. Wenn ich kompletten zugriff habe und alles komplett da ist werde ich die HDD's direkt ans NAS klemmen um die Daten zu sichern. Das auch direkt per SSH-Client.

Das habe ich ja vor ..

Es gibt eine Möglichkeit per USB3,
oder die verwegende per *viertem Slot*
wenn du keinen SATA->USB3 Adapter hast

Deshalb ja die Frage welche Platten laufen ...

Formatierung NTFS ist OK
ExFat kann glaube ich der Kerneltrieber nicht.
... und wird wegen Patenten in upstream Linux *nie* einflie0en.

Mach bitte mal ein
Code:
cat /proc/mdstat
cat /proc/partitions

um zu sehen was die Firmware hinter dem Rücken gemacht hat.
auf ein
Code:
mount

Falls du so eine Zeile bei mount sehen solltest
Code:
/dev/md2 on /i-data/350ffb37 type ext4 (rw,noatime,usrquota,data=ordered,barrier=1)

auch ein
Code:
du /i-data/350ffb37

Die Nummer 350ffb37 kann bei dir anders sein

_________________
Linux Kernel Developer
Lots of stuff attached to serial console
https://github.com/ulli-kroll


Nach oben
 Profil  
 
 
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Donnerstag 13. September 2018, 14:12 
Offline
interessiertes Mitglied

Registriert: Samstag 8. August 2015, 10:50
Beiträge: 50
Ja, die vierte Platte ganz rechts. Die war dann noch an.

Code:
~ # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active raid5 sda3[0] sdc3[2](F) sdb3[1]
      17569172928 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/2] [UU__]

md1 : active raid1 sdc2[6] sdb2[5] sda2[4] sdd2[7]
      1998784 blocks super 1.2 [4/4] [UUUU]

md0 : active raid1 sdc1[6] sdb1[5] sda1[4] sdd1[7]
      1997760 blocks super 1.2 [4/4] [UUUU]

unused devices: <none>
~ #


Code:
~ # cat /proc/partitions
major minor  #blocks  name

   7        0     147456 loop0
  31        0        256 mtdblock0
  31        1        512 mtdblock1
  31        2        256 mtdblock2
  31        3      10240 mtdblock3
  31        4      10240 mtdblock4
  31        5     112640 mtdblock5
  31        6      10240 mtdblock6
  31        7     112640 mtdblock7
  31        8       6144 mtdblock8
   8        0 5860522584 sda
   8        1    1998848 sda1
   8        2    1999872 sda2
   8        3 5856522240 sda3
   8       16 5860522584 sdb
   8       17    1998848 sdb1
   8       18    1999872 sdb2
   8       19 5856522240 sdb3
   8       32 5860522584 sdc
   8       33    1998848 sdc1
   8       34    1999872 sdc2
   8       35 5856522240 sdc3
   8       48 5860522584 sdd
   8       49    1998848 sdd1
   8       50    1999872 sdd2
   8       51 5856522240 sdd3
  31        9     102424 mtdblock9
   9        0    1997760 md0
   9        1    1998784 md1
  31       10       4464 mtdblock10
   9        2 17569172928 md2
 253        0     102400 dm-0
 253        1 17178820608 dm-1
~ #


Code:
~ # mount
/proc on /proc type proc (rw)
/sys on /sys type sysfs (rw)
none on /proc/bus/usb type usbfs (rw)
devpts on /dev/pts type devpts (rw)
ubi5:ubi_rootfs1 on /firmware/mnt/nand type ubifs (ro)
/dev/md0 on /firmware/mnt/sysdisk type ext4 (ro)
/firmware/mnt/sysdisk/sysdisk.img on /ram_bin type ext2 (ro)
/ram_bin/usr on /usr type none (ro,bind)
/ram_bin/lib/security on /lib/security type none (ro,bind)
/ram_bin/lib/modules on /lib/modules type none (ro,bind)
/ram_bin/lib/locale on /lib/locale type none (ro,bind)
/dev/ram0 on /tmp/tmpfs type tmpfs (rw,size=5m)
/tmp/tmpfs/usr_etc on /usr/local/etc type none (rw,bind)
ubi3:ubi_config on /etc/zyxel type ubifs (rw)
/dev/mapper/vg_ead2a518-lv_6093c7bb on /i-data/6093c7bb type ext4 (rw,noatime,usrquota,data=ordered,barrier=1)
/dev/mapper/vg_ead2a518-vg_info_area on /mnt/vg_info_area/vg_ead2a518 type ext4 (rw)
configfs on /sys/kernel/config type configfs (rw)
~ #


Das sind die Sachen die da raus gekommen sind...


Nach oben
 Profil  
 
 
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Donnerstag 13. September 2018, 14:59 
Offline
Experte

Registriert: Dienstag 19. Mai 2015, 09:25
Beiträge: 699
Wohnort: Germany / Cologne
h0tic3 hat geschrieben:
Ja, die vierte Platte ganz rechts. Die war dann noch an.

Gut ...

Bei den Ausgaben sieht auch alles soweit i.O. aus

nur bei
h0tic3 hat geschrieben:
Code:
/dev/mapper/vg_ead2a518-lv_6093c7bb on /i-data/6093c7bb type ext4 (rw,noatime,usrquota,data=ordered,barrier=1)
/dev/mapper/vg_ead2a518-vg_info_area on /mnt/vg_info_area/vg_ead2a518 type ext4 (rw)
~ #


Hat der device-mapper zugeschlagen und
das LVM *sauber* als ext4 eingebunden
... wieder ein Grund mehr sich mit dem KRAM zu beschäftigen

mach mal ein
Code:
du -sh /i-data/6093c7bb

um zu sehen wieviel Daten auf dem ext4 LVM zu "finden" sind
du zeigt die Anzahl der Belegten Blöcke an.
Und gibt die Ausgabe als "Human Readable
sollte also was um 10 TB ?? sein

ggf. kannst du auch ein
[code]ls /i-data/6093c7bb -lR]/code]
machen, das zeigt den Verzeichnisinhalt an.

_________________
Linux Kernel Developer
Lots of stuff attached to serial console
https://github.com/ulli-kroll


Nach oben
 Profil  
 
 
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Donnerstag 13. September 2018, 17:10 
Offline
interessiertes Mitglied

Registriert: Samstag 8. August 2015, 10:50
Beiträge: 50
Das bekomme ich ganz unten angezeigt:

Code:
337.0G  /i-data/6093c7bb
~ #


Es werden mir sehr viele Daten angezeigt. Jedoch alle mit "Input/output error".
Darum kann ich die ganzen Daten auch nicht sichern, schätze ich mal.


Nach oben
 Profil  
 
 
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Donnerstag 13. September 2018, 20:02 
Offline
Experte

Registriert: Dienstag 19. Mai 2015, 09:25
Beiträge: 699
Wohnort: Germany / Cologne
h0tic3 hat geschrieben:
Das bekomme ich ganz unten angezeigt:

Code:
337.0G  /i-data/6093c7bb
~ #


Es werden mir sehr viele Daten angezeigt. Jedoch alle mit "Input/output error".
Darum kann ich die ganzen Daten auch nicht sichern, schätze ich mal.


Ist es in etwas die Größe der Daten ??

... was mich aktuell noch wurmt,
das die Firmware hinter meinem Rücken einen Reset gemacht hat
und ggf. ein readwrite mount gemacht hat.
WAS ICH NICHT WOLLTE

_________________
Linux Kernel Developer
Lots of stuff attached to serial console
https://github.com/ulli-kroll


Nach oben
 Profil  
 
 
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Donnerstag 13. September 2018, 22:06 
Offline
Mitglied

Registriert: Montag 25. April 2016, 14:09
Beiträge: 13
@ElektromAn

Hier ist aber die 3. und 4. Platte missing. Daher keine Daten...Da sollte eigentlich nur die 4. auf missing stehen. sdc3 steht auch auf F

h0tic3 hat geschrieben:
Code:
~ # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active raid5 sda3[0] sdc3[2](F) sdb3[1]
      17569172928 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/2] [UU__]

md1 : active raid1 sdc2[6] sdb2[5] sda2[4] sdd2[7]
      1998784 blocks super 1.2 [4/4] [UUUU]

md0 : active raid1 sdc1[6] sdb1[5] sda1[4] sdd1[7]
      1997760 blocks super 1.2 [4/4] [UUUU]

unused devices: <none>
~ #



Nach oben
 Profil  
 
 
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Donnerstag 13. September 2018, 23:10 
Offline
interessiertes Mitglied

Registriert: Samstag 8. August 2015, 10:50
Beiträge: 50
Ah, also könnten die fehlenden Datenblöcke noch auf der missing Platte sein und dann wäre alles wieder da?


Nach oben
 Profil  
 
 
 Betreff des Beitrags: Re: Auch NAS540 RAID5 Problem
BeitragVerfasst: Freitag 14. September 2018, 07:13 
Offline
Mitglied

Registriert: Montag 25. April 2016, 14:09
Beiträge: 13
Möglich, im ersten Schritt wurde das RAID ja mit Platte 1, 2 und 3 aufgebaut und die vierte erstmal weggelassen. Für mich sieht so aus als wenn die 3. Platte in Fehler gelaufen ist, warum auch immer. Mal sehen was ElektromAn dazu sagt.


Nach oben
 Profil  
 
 
Beiträge der letzten Zeit anzeigen:  Sortiere nach  
Ein neues Thema erstellen Auf das Thema antworten  [ 106 Beiträge ]  Gehe zu Seite Vorherige  1 ... 3, 4, 5, 6, 7, 8  Nächste

Alle Zeiten sind UTC + 1 Stunde [ Sommerzeit ]


Wer ist online?

Mitglieder: Google [Bot]


Du darfst keine neuen Themen in diesem Forum erstellen.
Du darfst keine Antworten zu Themen in diesem Forum erstellen.
Du darfst deine Beiträge in diesem Forum nicht ändern.
Du darfst deine Beiträge in diesem Forum nicht löschen.
Du darfst keine Dateianhänge in diesem Forum erstellen.

Gehe zu:  
cron
Powered by phpBB® Forum Software © phpBB Group
Deutsche Übersetzung durch phpBB.de


Impressum


Hubwagen  - Hubtisch  - Hochhubwagen  - günstige Hubwagen  - Hubwagen  - Hubtisch  - Scherenhubtische  - günstige Kehrmaschinen