• Liebe User, bitte beachtet folgendes Thema: Was im Forum passiert, bleibt im Forum! Danke!
  • Hallo Gemeinde! Das Problem leidet zurzeit unter technischen Problemen. Wir sind da dran, aber das Zeitkontingent ist begrenzt. In der Zwischenzeit dürfte den meisten aufgefallen sein, dass das Erstellen von Posts funktioniert, auch wenn das Forum erstmal eine Fehlermeldung wirft. Um unseren Löschaufwand zu minimieren, bitten wir euch darum, nicht mehrmals auf 'Post Reply' zu klicken, da das zur Mehrfachposts führt. Grußworte.

Warum kleine NAS mit Raid5 und NAS ohne ECC relativ dohv sind. Link und Diskussion.

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
49.695
Reaktionen
10.277
Immer öfters gibts hier Kaufberatung zu NASsen, und neben den kleinen Streamng-Maschinen setzen immer wieder User (inkl mir) auf die Lösungen für SmallOffice mit 4+ Bays und allem möglichen Schnickschnack. Meist werden dann 3-4TB Platten reingehaun und Raid5 benutzt. Genau diese Kombo ist ohne regelmässige Backups ziemlich tödlich für Daten - und zumindest meiner einer hat kein Platz für ein regelmässiges 11TB Backup. Warum das so ist fasst dieser Beitrag besser zusammen als ich es jemals könnte:
http://www.zdnet.com/article/raidfail-dont-use-raid-5-on-small-arrays/

So, wenn man das intus hat weiß man nu das man um regelmässige Backups nicht herumkommt. Bei jedem Backup werden richtig viele Daten angefasst, durch den Speicher geschoben, kopiert, verglichen, verworfen etc pp. Der RAM hat riiichtig zu tun. Wer viel arbeitet, amcht viel Fehler, das gilt (leider) auch für RAM. Wenn im RAM während des Backups ein Bit kippt, gibt es nur noch eine Rettung: ECC. Ansonsten landet der gekippte Bit im Backup und wir haben eine korrupte Datei. Je nach Backup ist dieser gekippte Bit sogar durch eine nachlaufende Integritätsprüfung nicht zu erkennen, da der Vergleich wieder über den RAM geht und der den gekippten Bit uU noch vorhält. Genaueres dazu kann man täglich in /r/zfs lesen, ich war jetzt zu faul nen wirklich guten Link rauszusuchen.

Wenn man beides trotzdem macht, sollte man sich für wichtige Daten ein SEHR gutes K-Fall sicheres Backup-Szenario überlegen - viele Leute haben hier mitlerweile eigene Häuser / Wohnungen, zuviel Wasser im Keller beim NAS ist jetzt nicht sooo aussergewöhnlich bzw. unwarscheinlich und grillt ziemlich sicher das NAS und die angeschlossene externe Backup-Platte. Für die Terrbytes an Urlaubs-Home-Videos die ihr ja alle zu Hauf auf euren NASsen habt ist das aber ziemlich egal ;)
 

parats'

Tippspielmeister 2012, Tippspielmeister 2019
Mitglied seit
21.05.2003
Beiträge
20.339
Reaktionen
1.793
Ort
St. Gallen
Gute Zusammenfassung im Artikel weshalb ich pers. Raid 6 gegenüber Raid 5 bevorzuge. Im 4Bay Bereich gewinnt man halt leider nichts um vergleich zum Raid 10.
Backups sind immer so eine Sache - die wenigsten halten nochmal separat mehrere TB storage vor. Alternativ bietet sich ja ein LTO Band an, welches in der Halbwertszeit auch alle anderen Festspeicher schlägt. Über Preise brauchen wir aber im privaten Bereich nicht reden - LTO5/6 sind noch verhältnismäßig teuer und LTO4 bietet für den einen oder anderen nicht genug Platz.

Wobei komprimiert 1,6TB auch nicht gerade wenig ist.
 

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
49.695
Reaktionen
10.277
Raid6 verschiebt das Problem ja nur - das Problem ist halt eben das beim rebuild Datenverlust droht, emanent durch die Tatsache gegeben das Parity- und Storage-Informationen getrennt voneinander behandelt (ergo auch geschrieben) werden. Die Lösung ist 50 oder 60 oder eben was "richtiges" aka ZFS. 50 oder 60 sind für Heimanwender jedoch so teuer, das es sich einfach nicht lohnt - daher ZFS.
 

parats'

Tippspielmeister 2012, Tippspielmeister 2019
Mitglied seit
21.05.2003
Beiträge
20.339
Reaktionen
1.793
Ort
St. Gallen
Hast du aber nicht gerade bei ZFS extreme rebuild Zeiten beim Ausfall?
Abgesehen davon ist die Config eines ZFS-Raids nicht jedermanns Sache und erfordert doch etwas mehr Hingabe. ;)
 

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
49.695
Reaktionen
10.277
Natürlich hast du bei ZFS extreme Zeiten beim Ausfall. Das liegt aber daran das die meisten Leute damit auch ganz andere Sachen machen UND du beim rebuild vollen Zugriff auf die Daten hast. Und du hast beim ZFS rebuild keine sustained writes auf alle Datenträger über die ganze rebuild Zeit. Unter anderem das ist der Grund für die längere Zeit. Datarods während des rebuilds kanns nicht geben, da es keine writeholes gibt. Und wenn ein Laufwerk während des rebuilds verreckt ist auch nicht das ganze Raid tot, sondern wird eben ohne die Daten des Laufwerks weiter rebuilded - das übrig gebliebene Laufwerk kann dann auch noch teilweise gerettet werden, je nach Verreckgrund und Brieftasche.
 
Mitglied seit
08.08.2002
Beiträge
5.199
Reaktionen
0
Nur nochmal für mich zum Verständnis:
Bedeutet das nun, dass ich mit jeder weiteren Platte in einem Raid5 das Risiko auf Datenfehler beim Rebuild weiter vergrößere, da sich die Chance auf Datenfehler auch vergrößert?
Und einer dieser Datenfehler heisst wirklich: Feierabend bein Rebuild? Er macht nicht einfach weiter und ein paar Gigabyte sind vielleicht im Arsch? Das war es dann?
Überascht mich nun doch extrem das die Rebuild-Failure-Wahrscheinlichkeit so hoch ist.

Versteht mich nicht falsch, dass ich wichtige Daten (Dokumente, Steuer, Photoalbum, Softwareentwicklungsprojekte, etc) extra sichere ist klar. Aber wenn ich eine 40% oder mehr Chance bei einer defekten HDD habe, dass der Rebuild schief geht, dann kann man sich imho auch überlegen sich da wirklich nur einen tumben Datenserver in den Keller zu stellen und die extra Platte einzusparen. Das gesparte Geld könnte man dann mal überlegen gegen eine Bandsicherung gegenzurechnen, aber so wichtig wären mir die Daten noch nichtmal.

Wenn eine Platte dann kaputt ist, sind die Daten halt mit Sicherheit weg, ist bei meiner Wechselfestplattenlösung aber derzeit auch so (und auch schon mal passiert, da ich im Copyvorgang von WechselHDD auf WechselHDD eine weitere angeschlossen habe, dadurch offenbar ein Kabel einer WechselHDD im Kopiervorgang blöd erwischt habe und dadurch die Platte danach nicht mehr lesbar war :ugly: 1,5 TB an Filmmaterial im Arsch).
Und ich bin flexibler beim Aufrüsten von neuen Platten, kann Kapazitäten problemlos mischen, usw...

Dann brauche ich echt nur einen kleinen Rechner im Keller mit genug S-ATA anschlüssen. Eine SDD fürs OS, 3x 3TB Platten rein und fertig.
Kostenpunkt... vielleicht 600-700 Euro. Statt 1300 für ein Raid5 mit fragwürdiger REcovery.

Was denkt Ihr?
 

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
49.695
Reaktionen
10.277
Ich denke du machst zu deiner Frage mal endlich deinen eigenen Kaufberatungsthread auf ;)
Und ja, je größer die Platten beim Raid5 und je gößer die Gesamt-Datenmenge beim Rebuild desto höher die Warscheinlichkeit eines unrecoverable errors - und bei Raids der Level 5 und 6 reicht davon genau einer und der rebuild bricht ab. Diese Warscheinlichkeit nimmt bei mehr Platten jedoch nicht zu. Die Warscheinlichkeit eines URE einer Platte ist völlig unabhängig von der Warscheinlichkeit eines UREs einer anderen Platte.
 
Mitglied seit
08.08.2002
Beiträge
5.199
Reaktionen
0
Ich denke du machst zu deiner Frage mal endlich deinen eigenen Kaufberatungsthread auf ;)
Und ja, je größer die Platten beim Raid5 und je gößer die Gesamt-Datenmenge beim Rebuild desto höher die Warscheinlichkeit eines unrecoverable errors - und bei Raids der Level 5 und 6 reicht davon genau einer und der rebuild bricht ab. Diese Warscheinlichkeit nimmt bei mehr Platten jedoch nicht zu. Die Warscheinlichkeit eines URE einer Platte ist völlig unabhängig von der Warscheinlichkeit eines UREs einer anderen Platte.

Heh, net schimpfen, hab doch schon den guten Root vorhin drum gebeten, der das Lichtgeschwindigkeitsmäßig erledigt hat. Ich konnte die Tage aber aus Zeitmangel hier nicht so reinschauen, daher der Delay.
Arbeit, Arbeit ;)

Geht dann hier weiter! Danke Root!
 
Mitglied seit
27.12.2004
Beiträge
9.431
Reaktionen
16
Ich habe mal eine ganz allgemeine, naive Frage, da ich mich mit NAS bisher kaum beschäftigt habe.
Was genau tut ein NAS, außer einem die Arbeit zu ersparen eine Linuxbox mit Festplatten vollzustopfen und diese im Netzwerk freizugeben? Ist es nur der Formfaktor und ready-to-use Aspekt?
 
Mitglied seit
29.12.2002
Beiträge
3.248
Reaktionen
3
jo im prinzip schon. hinzu kommt, dass die teile meist recht sparsam sind und ohne probleme 24/7 laufen können. unter der haube laufen natürlich standard linux-tools, aber so ein schönes interface wie z.b. bei synology kriegt man sonst nicht ohne weiteres (ernsthaft, DSM ist wirklich gut!)
'festplatte im netzwerk' trifft es auch nicht ganz. mein ganzes setup hat sich seit anschaffung des NAS soweit verändert, dass ich alle daten an einer zentralen stelle habe und in den endgeräten nur eine kleine SSD für OS + programme. macht fast schon spaß die daten zu organisieren ;) auf jeden fall eine riesen erleichterung im vergleich zu daten auf x geräten und y externen festplatten zu lagern.
 
Mitglied seit
19.05.2003
Beiträge
19.993
Reaktionen
849
Von was für Datenmengen reden wir eigentlich? Und welche davon sind wirklich so wichtig, sie mehrfach zu sichern?
 
Mitglied seit
08.08.2002
Beiträge
5.199
Reaktionen
0
Von was für Datenmengen reden wir eigentlich? Und welche davon sind wirklich so wichtig, sie mehrfach zu sichern?

Ein NAS hat doch erstmal nix mit Datensicherung zu tun. Darum gehts gar nicht, es geht um unkomplizierte, zentrale Datenlagerungskapazität und Verfügbarkeit.
Wie Ducki das beschrieben hat. Die Daten liegen an einer Stelle und nicht auf tausend Systemen und Platten verteilt. Das dass im Endeffekt eine Datensicherungsstrategie dann natürlich auch erleichtert ist klar, aber hat erstmal mit dem NAS nichts zu tun.
 

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
49.695
Reaktionen
10.277
Nur mal als kleine Hilfestellung zu der Frage: Ich habe auf meinem NAS mitlerweile die 5TB Foto- und Videodaten überschritten, das sind vor allem Aufnahmen meiner Kinder. Für mich persönlich ist das absolut unersetzbares Material, daher gibts nen lokales Backup das rotierend ausgetauscht wird gegen eines das auf der Arbeit liegt. Das RAIS besteht insgesamt aus 12 TB, davon sind 9 nutzbar und Stand gestern ca 8,3 befüllt. Wenn man jetzt das hier liest: "... SATA drives are spec'd at one Unrecoverable Read Error (URE) every ~12.5 TB. " gliegt mir mein Raid mit einer Warscheinlichkeit von ~66% bei einem potentiellen Rebuild um die Ohren. Mathe ist ein Arsch :8[:
 
Mitglied seit
19.05.2003
Beiträge
19.993
Reaktionen
849
Druckst du denn gar keine Bilder mehr aus? Also wenn die so unersetzbar sind.
 

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
49.695
Reaktionen
10.277
Naja, RAWs ausdrucken ist nicht so geil - ausgedruckt werden sie nach Bearbeitung und Auswahl.
 
Mitglied seit
08.08.2002
Beiträge
5.199
Reaktionen
0
Naja, RAWs ausdrucken ist nicht so geil - ausgedruckt werden sie nach Bearbeitung und Auswahl.

Zumal auch ein Ausdruck nicht ewig farbecht hält und auch nicht flammen- oder wasserfest ist. Von fettigen Chipsfingern auf Feiern, die das Bild durch den Wolf drehen, mal ganz zu schweigen.
Dasi auf digitaler Dateneben sollte wirklich Pflicht sein. Zumal das heute nun wirklich keine große Sache ist. Und da sind wir dann wieder beim NAS. Einmal definieren welche Ordner man dort backupen will, kleine Batch geschrieben. Und auf Knopfdruck schiebt er Dir das auf eine Wechsel-HD und gut ist. Mit Scheduler geht das dann sogar regelmäßig ohne Dein zu tun bis auf den Plattenwechsel und transport.

Meines Erachtens zwar low Level, aber für mich würde das wohl schon reichen.
 
Mitglied seit
08.08.2002
Beiträge
5.199
Reaktionen
0
Wenn man jetzt das hier liest: "... SATA drives are spec'd at one Unrecoverable Read Error (URE) every ~12.5 TB. " gliegt mir mein Raid mit einer Warscheinlichkeit von ~66% bei einem potentiellen Rebuild um die Ohren. Mathe ist ein Arsch :8[:

Nur um das mit meinem Kleinhirn nochmal aufzugreifen: im normalen Betrieb ist das kein Problem, weil ECC oder kann die Datei die das gerade mal trifft dadurch eventuell auch einfach mal im laufenden Betrieb korrumpieren?
 

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
49.695
Reaktionen
10.277
Naja, man muss hier sehr aufpassen nicht verschiedene Dinge zu vermischen. Das eine sind UREs unter sustained write Bedingungen - und die hat man eigentlich nur beim initalen Befüllen, beim einspielen eines Bachups oder eben beim Raid-Rebuild. Nur bei letzterem sind sie also als "katastrophal" zu werten.
Das andere ist Datenintegrität per se - auf dem Weg durch den RAM hilft ECC natürlich, der Prozessor bringt diese Funktionalität eh mit, bleibt noch die Festplatte. Auf der Festplatte muss man die Datenintegrität auch sicherstellen - sei es durch manuelle Überprüfung (so mach ich es atm, ist total scheisse), sei es durch Filesystem-Erweiterungen (MD5FS als Bsp) oder, und das ist der Königsweg, durch das FS selber. Bei großen Datenmengen ist es einfach am sinnvollsten wenn das Filesystem selber für Datenintegrität sorgt.
 
Oben