Windows Storage Space ?

  • Moin,

    Ich bin schon seit einiger Zeit an diesem Thema interessiert, habe aber bisher keine Erfahrungen damit gesammelt. Aktuell werkeln als Netzwerkfestplatten bei mir zu Hause 2 externe USB2 Platten mit 1TB und 2TB die an einem ausrangierten Windows Tablet angeschlossen sind. Das ist natürlich alles andere als ausfallsicher und jahrelang ungenutzte Daten sind bereits nicht mehr lesbar (scheinbar gibt es irgendwelche zufällig auftretenden Datenverluste mit der Zeit, die Platten sind auch schon ziemlich alt).

    Daher habe ich mir folgendes überlegt:
    - Bei Freunden sämtliche verstaubten aber funktionierenden externen USB Festplatten/Sticks/sonstiges einsammeln die >= 16GB Speicher besitzen.
    - Einen kleinen Rechner besorgen (ggf einen kleinen NUC mit win10).
    - Via Windows Storage Space all diese gesammelten Speichermedien zusammenführen (parität als Option zur redundanz wählen).
    - Das dabei entstehende Laufwerk ins Netzwerk einbinden.

    Meine Anforderungen sind:
    - Großes einheitlich benutzbares Laufwerk (zusammen mit meinen externen Platten möchte ich über 5TB kommen (ggf auch noch höher))
    - Halbwegs akzeptabele Geschwindigkeit (muss nicht so schnell sein, ich schiebe ja nicht andauernd mehrere GB an Daten hin und her, aus einem Testbericht (unten auch verlinkt) geht etwa 1,5MB/s bei 12x16GB USB Sticks hervor. Ich weiß aber nicht in wiefern das repräsentativ ist wenn man nicht USB2 nutzt und ggf auch Festplatten/SSDs zusätzlich einbindet. 10MB/s wären schon angenehm, aber nicht unbedingt erforderlich)
    - Ausfallsicher (falls von den z.B. 10 Geräten z.B. eines ausfällt sollte sich der Spaß nicht verabschieden, man sollte das defekte Teil einfach ausbauen oder ersetzen können)
    - ggf. Datenauffrischung (also die Daten lesen, zwischenspeichern und neu abspeichern, sodass keine "alterung" eintritt)

    Bevor ich irgendwas in der Richtung versuche (ist immerhin mit gewissen invesititonen verbunden) möchte ich mich erkundigen ob jemand damit Erfahrung hat.

    Interessante Links dazu sind folgende:
    - https://www.wintotal.de/speicherplatze…ws-8-verwalten/
    - https://www.pcwelt.de/ratgeber/Stora…D-10038035.html
    - http://www.com-magazin.de/tipps-tricks/n…ten-886655.html
    - https://superuser.com/questions/1067…-storage-spaces
    (Alles nicht sehr wissenschaftlich, aber falls man das alles durchliest weiß man in etwa um was es geht)

    Edit:
    Klar ist folgendes: Wenn ich einfach neue (hybrid) Festplatten mit >=2TB kaufe habe ich wesentlich schnelleren Speicher der auch wieder einige Jahre seinen Dienst tut. Wahrscheinlich ist es auch günstiger & schneller eine "Netzwerkfestplatte" zu kaufen die direkt einen Ethernetanschluss/WLAN hat, als einen NUC. Mir gehts aber auch ein bisschen um den Bastelspaß und einfach die Tatsache, dass kleine Einzelteile softwareseitig integriert werden können, sodass sie ein großes Ganzes ergeben.

    lg
    M

  • Das ist natürlich alles andere als ausfallsicher und jahrelang ungenutzte Daten sind bereits nicht mehr lesbar (scheinbar gibt es irgendwelche zufällig auftretenden Datenverluste mit der Zeit, die Platten sind auch schon ziemlich alt).

    Bei Freunden sämtliche verstaubten aber funktionierenden externen USB Festplatten/Sticks/sonstiges einsammeln die >= 16GB Speicher besitzen.

    Dann haste genau dasselbe Problem, Festplatten werden nicht jünger und wenn sie schon Sektorenfehler haben (immer mit CrystalDiskInfo scannen!), dann werden die in dem Dauerbetrieb auch nicht mehr lange überleben.

    Wenn du ein Budget von 100€ hast kannst du ja überlegen dir einfach eine 4TB Platte, 2x2TB zu kaufen und diese dann zu nutzen. Diese sind frisch und deine Daten sind sicherer.
    Ich weiß nicht wie groß die Parityplatte sein muss aber du kannst dann ja eine kleinere nehmen um die als Rekonstruktionsdatenträger zu nutzen (wie z.B. bei WinRAR-Dateien) falls sowas möglich ist.

    Falls all das nicht helfen sollte, dann kannste dir ja noch ein paar Spindel CD/DVDs holen und deine Daten drauf brennen :D

  • Die Sektorenfehler kann man durch komplettes formatieren und ggf ein paar mal vollschreiben und wieder leermachen beheben oder? Das müsste doch daher kommen, dass die magnetisierung mit der Zeit nachgelassen hat und wenn man ein paar 0en und 1en drüberschreibt müsste das doch wieder klappen? nur zur Info, vllt muss man sie ja nicht ersetzen, sondern nur mal ein bisschen polieren :)

  • Die Sektorenfehler kann man durch komplettes formatieren und ggf ein paar mal vollschreiben und wieder leermachen beheben oder?

    Bei meiner defekten Platte ist der Explorer aufgrund von IO-Fehlern zusammengebrochen.
    Wenn ich Dateien die in den Sektoren lagen verschieben wollte hat der ab einer bestimmten Prozentzahl (ab dort wo es in die Sektoren ging) sich aufgehängt.
    Komplette Formatierungen, seien es nun schnell, langsam, 7x, 30x haben den selber Fehler reproduziert.

    Außerdem ist die Ausfallwahrscheinlichkeit extrem erhöht wenn die Platte schon defekte Sektoren hat, da sollte man seine Daten so schnell wie möglich auf eine andere Platte schieben.

  • Die Sektorenfehler kann man durch komplettes formatieren und ggf ein paar mal vollschreiben und wieder leermachen beheben oder?

    Also wenn du Daten auf einem Gerät speicherst, egal ob USB-Stick, HDD oder SSD, das Sektorenfehler meldet ... dann brauchst du die Daten nicht mehr. So eine Platte baue ich aus und gebe diese meinem Sohn zum zerlegen.
    Ich bin Beruflich auch in der IT-Unterwegs ... und habe schon zu oft Daten wieder retten müssen die nicht gesichert wurden weil diese ja "unwichtig" waren.

    Zum zusammenführen von vielen USB-Sticks mit "Windows Storage Space": Naja, da werden dir schnell die USB-Ports ausgehen. Und über Hubs etc. wird das ganze nicht schneller - und schon gar nicht sicherer (wieder viel mehr Fehlerquellen). Wegen eines Ausfalls solltest du peinlich genau dokumentieren welcher Sticker welcher in der Datenträgerverwaltung ist. Nicht das du beim Austausch eines defekten den falschen ziehst.

    Zudem bin ich nicht sicher ob Windows das überhaupt zulassen wird. Es gibt Sticks die wie eine Festplatte behandelt werden, andere als austauschbare Datenträger. Keine Ahnung ob er dich lässt.

    Der Punkt ist: Willst du nur spielen/ probieren? Dann mach es. Willst du das tatsächlich als Ablage für wichtige Daten nutzen? Lieber nicht.

    Wenn das Ding 1 Jahr läuft - und das ist was damit .... weist du dann noch wie alles lief?

    Ich betreibe verschiedene Szenarien, alle auf Hinblick mit Datensicherheit, für dich wäre zum Beispiel ja vielleicht so etwas interessant:

    • "Server" mit Windows (startet bei mir von kleiner SSD) mit 4TB Platte für die Daten
    • Tägliches, automatisiertes Backup auf einen Raspberry Pi / Banana Pi mit 2x 2,5" Festplatten

    Das Backup mache zum einem mit einem Image-Tool (für das Betriebssystem, Veeam Endpoint Backup, sichert auf Cifs-Freigabe)
    Zum anderen mit Seafile. Ist ähnlich wie Dropbox, sichert mit Depulizierung und Blockbasiert. Auf dem Raspberry der Serverteil.
    Der Client auf dem "Server" kann beliebige Verzeichnisse überwachen. Dank Freischaltung eines Ports von außen kann ich trotzdem von überall an die Daten (mit Handy-App, WIndows oder Linux Client oder Webbrowser).

    Noch besser; Du nimmst 2 Raspberrys + USB-Festplatte, und richtest auf beiden Seafile oder eine alternative Software ein.

    • Den einen stellst du zum Kumpel / Eltern / Onkel. Darf gerne weiter weg wohnen.
    • Den anderen stellst du bei dir auf.
    • Du Installierst bei dir den Client und sicherst auf den entfernten Raspberry
    • Dein Kumpel macht es umgekehrt.

    So hast du ein Backup außer Haus - und dein Kumpel auch. Der entsprechenden Software ist es egal wie lang der erste Sync dauert (oder du machst es lokal und bringst das Ding dann weg)
    Die Daten kannst du verschlüsseln (durch die Clientsoftware), so kommt der Kumpel nicht an deine Daten und du nicht an seine.

    Privat habe ich das noch weiter gesponnen und meine Daten mehrfach redundant auf 2 Seafileserver zu Hause und in Frankreich und in Dropbox (10 Euro/1TB Monatlich) gesichert.
    Zusätzlich liegen die Daten auf einem Rechner und einem Notebook und werden auf einen Testserver in meiner Firma gesichert. Von allem habe ich immer mindestens 2 Kopien, davon eine außer Haus

    Wie @alpines schon vorschlug, lieber Festplatten. Ob du nun 2 kleine nimmst und ein Raid in einem Rechner/Server machst - oder die Daten automatisiert(!!!!!!) sicherst ist dann Geschmackssache.

    Ich hatte vor 2 Jahren eine nagelneue 4TB Festplatte die nach 4 Wochen den Geist aufgegeben hatte. Natürlich just als ich die Originaldaten alle dorthin kopiert und die alten Platten gelöscht hatte.
    Ich musste mir die Daten zwar aus 4 Stellen wiederholen - aber ich hatte diese immerhin noch.

    Wie geschrieben: wenn du nur spielen willst - würde gerne wissen ob das mit den vielen USB-Sticks klappt :)

    Gruß,
    BLinz

  • Tägliches, automatisiertes Backup auf einen Raspberry Pi / Banana Pi mit 2x 2,5" Festplatten

    Hallo @BLinz !

    Danke für diese ausführliche Beschreibung !
    Ich habe zwar ein brauchbares Archivierungsverfahren für den Bereich 'Home-Office', aber die Idee mit den Pi's werde ich auf die Liste setzen. Ich wollte schon immer mal was mit denen machen. ;)

    Vor einiger Zeit lief auf ARTE eine Dokumentation zum Thema 'Langzeitsicherungen'. Dabei ging es darum, das 'Wissen der Welt' möglichst lange zu archivieren (> 100 Jahre +).
    CDs/DVDs und Festplatten waren überhaupt keine Option (Lebensdauer < 10-15 Jahre). Stattdessen wurden spezielle Magnetbandkassetten eingesetzt, da sie bedeutend länger halten und auch mal auf den Boden fallen können. Selbst Ausdrucke mit Spezialtinte auf säurefreiem Papier wurden verwendet (daher bevorzuge ich privat auch immer gedruckte Bücher).
    Ich denke, unser Vertrauen in 'moderne' Speichermedien ist diesbzgl. etwas optimistisch.

    Gruß Musashi

    86598-musashi-c64-png

    "Am Anfang wurde das Universum erschaffen. Das machte viele Leute sehr wütend und wurde allenthalben als Schritt in die falsche Richtung angesehen."

  • CDs/DVDs und Festplatten waren überhaupt keine Option (Lebensdauer < 10-15 Jahre).

    Das kommt aber darauf an wie du diese lagerst.
    Bit Rotting oder Data Rotting wie man das auch nennt, tritt auf wenn man die Datenträger so lagert, dass ihre Bestandteile feuchter Luft ausgesetzt sind und/oder oxidieren und somit unbrauchbar werden.

    Ich hab hier zuhause noch CDs rumliegen die bestimmt älter als 20 Jahre sind und noch hervorragend funktionieren, weil sie vernünftig gelagert wurden.

    Tägliches, automatisiertes Backup auf einen Raspberry Pi / Banana Pi mit 2x 2,5" Festplatten

    Wird von dem zu sichernden Datenträger eine Dateiliste angelegt und abgeglichen so ähnlich wie in Git oder wird das ganze nochmal gesichert? Letzteres müsste ja unfassbar viel Speicher fressen. Hast du die Möglichkeit auf ein genaues Datum zurückzusetzen, oder hast du nur sozusagen die neueste Revision?

  • Wird von dem zu sichernden Datenträger eine Dateiliste angelegt und abgeglichen so ähnlich wie in Git oder wird das ganze nochmal gesichert? Letzteres müsste ja unfassbar viel Speicher fressen. Hast du die Möglichkeit auf ein genaues Datum zurückzusetzen, oder hast du nur sozusagen die neueste Revision?

    Wenn du mit "Veeam Endpoint Backup" sicherst kannst du angeben wie viele Wiederherstellungspunkte du haben willst, z.B. 14 für 14 Tage. Der macht ein Fullbackup und danach nur noch inkrementell. Also eine Dicke Datei und 13 kleinere mit den Änderungen. Wird gesichert wird im Anschluß die älteste kleine Datei in die Große eingepflegt. Du kannst sowohl Imagebasiert ("Festplatte D:") als auch Dateibasiert ("Ordner D:\Install") sicher - nur nicht beides gleichzeitig.
    Und halt alle Dateien aus den letzten 14 Tagen.

    Machst du es mit anderer Software, z.B. wie ich mit Seafile so hast du immer den letzten Stand. Es gibt pro gesyncten Ordner einen Papierkorb, die Aufbewahrungszeit kannst du einstellen (pro Ordner). Der papierkorb hilft also gegen "gelöscht". geht man auf eine Datei über das Webinterface so kann man dort auch noch mal die letzten 19 Versionen sehen (kann man auch irgendwo einstellen wie viele) und wiederherstellen lassen.
    Hängt von der Software ab.
    bei Seafile ist das so ähnlich wie git bzw. Dropbox. Jede Datei wird in Blöcke aufgeteilt. Pro Block wird eine Prüfsumme gebildet (=eindeutige Nummer). Diese wird an den Server gesendet. Der schaut in seiner SQL-Datenbank nach ob es die Nummer schon gibt. Wenn nein lässt es sich den Block vom Cient senden. Wenn es die Nummer schon gibt notiert er sich für die Datei das diese auch an Stelle X für Datei Y benötigt wird.

    Ich habe gerade mal geschaut, auf meinem Seafile-Server in Frankreich (Mietserver bei SoYouStart, bei denen ist Strom schön billig) liegen lokal ca. 260GB Daten. Die MySQL Datenbank dazu hat zur Zeit 39Mbyte
    Was ich an Seafile mag: Und wenn er 3 tage braucht um z.B. eine 20GB Datei hochzuladen - irgendwann schafft er es. Auch wenn er neu Anfangen muss - dann überspringt er die Blöcke die er schon hat halt entsprechend schnell.

    Beide Produkte sind nur Stellvertretend - da gibt noch viele andere. Ich bin halt aus beruflichen Gründen (Veeam) und nach vielen Umwegen (BitTorrentSync, Syncthing, OwnCloud) bei diesen Produkten gelandet.

    BLinz