ZITAt (ddd @ 2011-07-07, 22:59) ZITAt (Hans-J. @ 2011-07-07, 14:14) * Abartige Kapazität (mit gleichzeitig völlig müheloser Erweiterbarkeit, spart je Menge Umkopiererei)
* Snapshots in Sekundenbruchteilen erstellt
* Echte Data dedublication, d.h ein Datenblock mit bestimmtem Inhalt wird nur einmal gespeichert, damit werden IMHO zahlreiche Snapshots erst praktikabel
Also hab ich einen kleinen HP Server angeschafft, mach automatisch täglich Snapshots und die Kiste läuft und läuft und läuft.[/quote]
das meinst Du jetzt nicht ernst, oder?
[/quote]
Doch, das meine ich absolut ernst, aber du hast offensichtlich nicht so ganz verstanden.
ZITAt (ddd @ 2011-07-07, 22:59) Deine snapshots sind nix weiter als ein audit-trail, damit ist nachvollziehbar (und wiederherstellbar), was an den Daten willentlich verändert wurde. Damit werden gerade keine Kopien der Dateien angelegt. Die ganzen anderen "Nettigkeiten" reduzieren aber die Redundanz und/oder die Häufigkeit des Neuschreibens der Daten und gefährden damit deren Integrität bzw. Robustheit im Falle eines Fehlers. Ein "hit" in einem oft "dedublicateten" Block, und alle diesen referenzierenden Instanzen der Datei sind nur noch Datenmüll. Dazu reicht ein hard-read-error, da liefert die Platte nämlich dann den Inhalt eines Reservesektors, der ist entweder 512x 0xff oder 512x 0x00. Dürfte sehr selten dem Inhalt des ersetzten Blocks entsprechen ...[/quote]
Denn natürlich sind die Daten nicht wie du es formulierst mit einem "hit" verloren, denn dagegen sichert ja die double parity. Da können sogar zwei Laufwerke gleichzeitig völlig versagen und die Daten sind problemlos weiter intakt.
ZITAt (ddd @ 2011-07-07, 22:59) ZFS ist toll für Produktionsserver unter Last mit sauberem gestaffeltem Backup und ordentlicher Archivierung. Aber es ist keine redundante Speicherung und für Zwecke der Archivierung völlig untauglich.[/quote]
Ich hatte doch klar gesagt, dass die Möglichkeit ein ZFS Volume auf einen anderen Ort zu kopieren als Backup eingesetzt wird. Das schöne an ZFS ist ja gerade, dass diese Algorithmen schon im Filesystem vorgesehen sind.
Also ich persönlich vertaue da viel mehr auf Festplatten mit redundanter Speicherung und zusätzlichem ortsgetrennten Backupvolumen, als auf Bänder, CD, DVD, Blue Ray und dergleichen. Es hat sich im meiner langjährigen Praxis als durchaus praktikabel erwiesen die historischen Daten einfach mitzunehmen,
denn die stetig wachsende Kapazität der Datenträger hat das in meinem Fall immer schön kompensiert. Und wenn ich in zwei drei Jahren das Ding für die nächsten Jahre wieder aufrüste gibt es längst 4-8TB Laufwerke und der Aufwand hält sich wieder im Rahmen.
BG Hans