Wie verschiebt TC?

German support forum

Moderators: white, Hacker, Stefan2

Post Reply
Biff
Junior Member
Junior Member
Posts: 21
Joined: 2016-05-20, 17:02 UTC

Wie verschiebt TC?

Post by *Biff »

Löscht TC die Quelldateien, -ordner erst nachdem alle Daten fehlerfrei ins Ziel kopiert worden sind oder macht er es so, wie Windows es glaube ich macht, daß er nach Kopieren einzelner Dateien oder Teile von Dateien die Quelldaten löscht?

Falls letzteres, könnte man einstellen, daß die Daten erst, nachdem sie vollständig und fehlerfrei am Zielort sind auf der Quellseite gelöscht werden?
gdpr deleted 6
Power Member
Power Member
Posts: 872
Joined: 2013-09-04, 14:07 UTC

Re: Wie verschiebt TC?

Post by *gdpr deleted 6 »

Biff wrote:Löscht TC die Quelldateien, -ordner erst nachdem alle Daten fehlerfrei ins Ziel kopiert worden sind oder macht er es so, wie Windows es glaube ich macht, daß er nach Kopieren einzelner Dateien oder Teile von Dateien die Quelldaten löscht?
Weder Windows noch TC loeschen bereits die Quelldaten wenn nur Teile einer Datei kopiert wurden. Solange der Kopiervorgang einer Datei noch nicht abgeschlossen wurde, solange existiert auch noch die Originaldatei. Keine Ahnung, wie du darauf kommst oder was du eigentlich mit "oder Teile von Dateien" meintest.

Bezueglich fehlerfreier Kopien ist das so eine Sache. Weder Windows noch TC pruefen standardmaessig, ob die neue Kopie einer Datei Bit fuer Bit mit dem Original identisch ist. Ausser in Faellen wo die Kopier-Routine selbst Fehlerszenarien erkennen kann (z.B. kein Platz mehr auf dem Ziellaufwerk) werden (Kopier-)Fehler nur dann gemeldet, wenn das/die beteiligten Storage-System(e) (z.B. die HDD, SDD, oder auch ein NAS) einen Fehler erkennen und melden.

Allerdings kann man dem TC 'sagen', dass nach einem Kopiervorgang eine MD5-Checksumme vom Original und der Kopie gebildet und verglichen werden soll, um festzustellen ob die Kopie okay ist. Dazu gibt es eine "Verify"-Checkbox im Kopier/Bewegen-Dialog. Diese Checkbox kann auch dauerhaft ueber eine entsprechende Option im Konfigurationsdialog -> "Copy/Delete" -> "Verify after copying (MD5 checksum)" aktiviert werden. (sorry, habe TC hier nur in Englisch, keine Ahnung was der korrekte deutsche Namen dieser Einstellung ist...)

Es muss aber auch betont werden, dass identische Checksummen/Hashes zweier Dateien keine Garantie dafuer ist, dass beide Dateien ebenfalls identisch sind (das liegt in der Natur der Sache; Stichwort "Pigeonhole principle", "Hash collisions", etc...).

Wenn wir aber von dem doch eher realistischen Fall ausgehen, dass die bei einem fehlerhaften Kopiervorgang auftetenden Fehler von zufaelliger Natur sind, dann sollte eine Ueberpruefung basierend auf MD5-Hashes in der Realitaet ausreichen. Die Wahrscheinlichkeit, dass eine zufaellige Aenderung eines/vieler/weniger Bytes in der Datei den gleichen MD5-Hash produziert, ist enorm klein.

Wenn es dir allerding wirklich sehr, sehr wichtig ist, in jedem noch so unwahrscheinlichen Fall Kopien zuverlaessig und zweifelsfrei auf Fehlerfreiheit ueberpruefen zu koennen, dann wuerde ich dir von einer Ueberpruefung mittels MD5-Vergleich abraten. Anstelle dessen koenntest du nach dem Kopiervorgang (nicht Bewegen!) TC's "Synchronisiere Ordner..."-Funktion zur Ueberpruefung verwenden (vergiss nicht, dass du den Vergleich nach Datei-Inhalt einschalten musst!). Falls du nicht jedesmal umstaendlich erst kopieren, dann verifizieren mittels "Synchronisiere Ordner..." und dann die Originale manuell loeschen willst, dann kannst du auch ein separates (Kommandozeilen-) Tool wie z.B. xxcopy benutzen, welches byte-fuer-byte-Verify anbietet (http://xxcopy.com/xcpywhat.htm, ich habe es allerdings nicht selber ausprobiert da es leider nur als Installer aber nicht in einer portablen Version verfuegbar ist). Es gibt da sicherlich noch weitere Tools, aber Muetterchen Google weiss da bestimmt mehr als ich... ;)

(Schlussbemerkung: Wenn dir jederzeit zuverlaessige Kopien wichtig sind, dann sollte dir moeglicherweise auch wichtig sein, dass dir die Daten nicht so leicht auf dem Storage-Medium 'verrotten'. Schlagworte: ZFS, BFRS, ... wahrscheinlich dir aber bereits bekannt...)
Biff
Junior Member
Junior Member
Posts: 21
Joined: 2016-05-20, 17:02 UTC

Post by *Biff »

Vielen Dank elgonzo,

ich glaube, eigentlich sollte man ja - selbst bei Windows - davon ausgehen können, daß Dateien normalerweise fehlerfrei übertragen werden. Da aber auf zwei anderen Notebooks bei dem Transfer zu externen USB-Platten aus bis heute nicht ermittelbarer Ursache es ständig, nicht als fehlerhaft beim Transfer angezeigte, kaputte Dateien gab, will ich auf dem neuen Notebook, zumindest eine gewisse Zeit lang, übertragende Daten überprüfen.
Bezueglich fehlerfreier Kopien ist das so eine Sache. Weder Windows noch TC pruefen standardmaessig die neue Kopie einer Datei, ob sie Bit fuer Bit identisch ist mit dem Original. Es wird nur ein Fehler gemeldet, wenn das/die beteiligten Storage-System(e) (z.B. die HDD, SDD, oder auch ein NAS) einen Fehler erkennen und melden.
Es kann also offenbar durchaus passieren, daß unterwegs ein byte oder so was unbemerkt verlorengeht oder sich von 0 nach 1 oder umgekehrt verändert.

Die Funktion zur Dateiverifizierung war einfach zu finden, habe ich erstmal aktiviert, dankesehr.
Es muss aber auch betont werden, dass identische Checksummen/Hashes zweier Dateien leider keine Garantie dafuer ist, dass beide Dateien ebenfalls identisch sind (das liegt in der Natur der Sache; Stichwort "Pigeonhole principle", "Hash collisions", etc...). Praktisch bedeutet dies, dass eine Ueberpruefung mittels Hashes (wie z.B. MD5) zwar die meisten Faelle einer fehlerhaften Kopie erkennt, aber eben nicht alle.

Wenn es dir wirklich sehr, sehr wichtig ist, Kopien zuverlaessig und zweifelsfrei auf Fehlerfreiheit zu ueberpruefen, dann wuerde ich dir von einer Ueberpruefung mittels Hash-Vergleich deshalb abraten. Anstelle dessen koenntest du nach dem Kopiervorgang (nicht Bewegen!) TC's "Synchronisiere Ordner..."-Funktion zur Ueberpruefung verwenden (vergiss nicht, dass du den Vergleich nach Datei-Inhalt einschalten musst!)
Das heißt also, falls ich recht verstehe (nachdem, was ich auch noch bei Google unter benannten Stichworten gelesen habe und was ich nur zu einem geringen Teil annähernd verstehe), die Überprüfung nach Dateiinhalt ist also zuverlässiger als nach Prüfsumme? Aber selbst eine Prüfung nach Inhalt, könnte ich mir vorstellen, muß nicht immer richtig sein, oder doch? Aber wohl wird doch die Fehlerquote beim Überprüfen nach Prüfsumme sehr gering sein, da müßten doch schon tausende oder gar Millionen Dateien überprüft werden, damit ein Fehler auftritt, könnte ich mir denken.

Also dann zum Prüfen immer kopieren (nie verschieben) und danach nach Inahlt prüfen.
Falls du nicht jedesmal umstaendlich erst kopieren, dann verifizieren mittels "Synchronisiere Ordner..." und dann die Originale manuell loeschen willst, dann kannst du auch ein separates (Kommandozeilen-) Tool wie z.B. xxcopy benutzen, welches byte-fuer-byte-Verify anbietet (http://xxcopy.com/xcpywhat.htm, ich habe es allerdings nicht selber ausprobiert da es leider nur als Installer aber nicht in einer portablen Version verfuegbar ist). Es gibt da sicherlich noch weitere Tools, aber Muetterchen Google weiss da bestimmt mehr als ich... Wink
Dankesehr für den Link, ja, so ein Programm, das das tut, wäre natürlich sehr nützlich, werde ich mir mal angucken, ja, schade, daß es das Programm nicht portabel gibt, wäre angenehmer.

Vielen Dank nochmals.
gdpr deleted 6
Power Member
Power Member
Posts: 872
Joined: 2013-09-04, 14:07 UTC

Post by *gdpr deleted 6 »

Biff wrote:ich glaube, eigentlich sollte man ja - selbst bei Windows - davon ausgehen können, daß Dateien normalerweise fehlerfrei übertragen werden. Da aber auf zwei anderen Notebooks bei dem Transfer zu externen USB-Platten aus bis heute nicht ermittelbarer Ursache es ständig, nicht als fehlerhaft beim Transfer angezeigte, kaputte Dateien gab, will ich auf dem neuen Notebook, zumindest eine gewisse Zeit lang, übertragende Daten überprüfen.
Ja, wenn alles so funktioniert wie gedacht und das System sauber aufgebaut ist, dann ist die Wahrscheinlichkeit recht gering. Allerdings, wenn man die doch maessige Qualitaet vieler Konsumgueter heuzutage betrachtet (Geiz ist geil und billiger ist besser), da is diese Annahme doch haeufig mehr dem Prinzip Hoffnung zuzuordnen.

Ich hatte mal eine WD Green HDD, die hatte sporadische Lesefehler. Aber anstelle einen Fehler zu melden, hat die Platte fuer die betreffendenen 256 Byte-Sektoren einfach nur 256 Bytes Muell geschickt und dem SATA-Controller gesagt "Stimmt schon so...". 5 Minuten spaeter nochmal die gleiche Datei (also die gleichen Sektoren) gelesen, und diesmal hat die HDD die korrekten Daten geliefert. Ein paar Minuten spaeter - wieder ein Lesefehler. Es war auch nicht auszuchmachen, was den Lesefehler getriggert hat. Es war nicht die I/O-Last, der die HDD ausgesetzt war, nicht die Temperatur, keine Vibrationen... es war total unerklaerlich und total zufaellig wann die Platte rummurkste. Es haette die Magnetisierung auf den Scheiben oder auch ein defekter/glitchender HDD-Controller sein koennen, wer weiss. (So ein Fehler ist natuerlich ganz perfide, da er ja bereits das Lesen sabotiert...)

Bei USB-Platten kommt neben Magnetisierungsproblemen und 'verrueckter HDD-Controller' mit der USB-SATA-Bridge noch eine weitere Komponente dazu, die einen Bug haben oder einen (sporadischen) Defekt entwickeln koennte und so Daten vermurksen kann...

Und dann der Hauptspeicher. Beim Kopieren von Dateien "passieren" die Daten den Hauptspeicher deines Computers. Bits koennen auch im Hauptspeicher drehen (du hast doch sicherlich schon mal von defekten RAM gehoert, der nur sporadisch seine Macken offenbart). Gehoerst du zu der Art von Leuten, die ihre Computer und auch ihren Hauptspeicher bis zur Grenze uebertakten? Wenn ja, dann Gratulation - du stehst bereits mit einem Bein im Datengrab... ;)
Es kann also offenbar durchaus passieren, daß unterwegs ein byte oder so was unbemerkt verlorengeht oder sich von 0 nach 1 oder umgekehrt verändert.
Wenn du vernuenftige Kabel hast, dann ist das praktisch nicht relevant. Natuerlich konnen durch passende elektromagnetische Stoerfelder Bits auf der Leitung umgedreht werden. Allerdings haben die jeweiligen Transport-Protokolle (ob nun USB, SATA fuer lokale Platten, oder Ethernet fuer ein NAS im Haus) Mechanismen um Bit-Dreher zu erkennen und auch um das Risiko fuer Bit-Dreher zu minimieren (Checksummen, Scrambling, Bit-Encodings). Schlechte Kabel, die die Spec nicht erfuellen, vermiesen die Signalkonsistenz kontinuierlich, und so etwas wird von den involvierten Controllern zuverlaessig bemerkt.
Das heißt also, falls ich recht verstehe (nachdem, was ich auch noch bei Google unter benannten Stichworten gelesen habe und was ich nur zu einem geringen Teil annähernd verstehe), die Überprüfung nach Dateiinhalt ist also zuverlässiger als nach Prüfsumme?
Jupp, es Vergleich nach Inhalt ist zuverlaessiger. Allerdings ist die Wahrscheinlichkeit fuer ein Versagen des MD5-Vergleiches doch recht gering, wie du richtigerweise bemerkt hast. Ich hatte dies in meinem original Post oben nicht richtig klar herausgestellt. Ich habe ihn bzgl. MD5-Vergleich noch einmal ueberarbeitet um die Versagens-Wahrscheinlichkeit (oder Versagens-Unwahrscheinlichkeit ;) ) etwas deutlicher zu machen. Aber letztendlich bleibt es dabei: Wenn zwei Dateien die gleiche Checksumme haben, so heisst dies noch nicht mit 100%er Wahrscheinlichkeit, dass beide Dateien gleich sind (sind wohl eher 99.99%, oder so -- Nachkommastellen hab ich jetzt nicht berechnet, eher kreatives Daumenpeilen ;) )
Aber selbst eine Prüfung nach Inhalt, könnte ich mir vorstellen, muß nicht immer richtig sein, oder doch?
Doch, die Pruefung nach Inhalt ist immer korrekt. Entweder der Inhalt ist identisch, oder er ist es nicht. Der Punkt, auf den du wohl hinauswillst ist die Frage: "Wie sicher sind meine Daten auf der Platte?" Kurz und buendig: Sie sind nicht sicher. Daten auf einer Platte koennen nicht nur durch Benutzerfehler verlorgen gehen, sondern auch durch Defekte oder Alterserscheinungen bei den Magnetscheiben (eine Form von "bit rot") oder der Elektronik (siehe mein Beispiel am Anfang dieses Posts). Deshalb immer Generationen-Backups machen...
Aber wohl wird doch die Fehlerquote beim Überprüfen nach Prüfsumme sehr gering sein, da müßten doch schon tausende oder gar Millionen Dateien überprüft werden, damit ein Fehler auftritt, könnte ich mir denken.
Ja, im Prinzip hast du schon Recht. Auch wenn die Wahrscheinlichkeit groesser als 0% ist (d.h. es kann passieren), so sollte man es doch so handhaben wie mit dem Lotto: Es sind immer andere, die den Jackpot gewinnen. Genauso wirst du wohl keine Probleme mit der MD5-Verifikation haben, und irgendwann wirst du vielleicht mal von irgendjemandem hoeren/lesen, bei dem es mit der MD5-Verifikation schief gegangen ist. (Die Wahrscheinlichkeit, dass du davon allerdings jemals hoerst, ist weit geringer als die Wahrscheinlichkeit des Vesagens der MD5-Verifikation selbst. Denn es kommt hier noch die Wahrscheinlichkeit dazu, ob und unter welchen Umstaenden derjenige die Datenkorruption bemerkt und ob er dies irgendwo postet/dokumentiert, als auch die Wahrscheinlichkeit, dass du das Posting ueberhaupt jemals findest und wahrnimmst ;) )
Biff
Junior Member
Junior Member
Posts: 21
Joined: 2016-05-20, 17:02 UTC

Post by *Biff »

Ich hatte mal eine WD Green HDD, die hatte sporadische Lesefehler. Aber anstelle einen Fehler zu melden, hat die Platte fuer die betreffendenen 256 Byte-Sektoren einfach nur 256 Bytes Muell geschickt und dem SATA-Controller gesagt "Stimmt schon so...". 5 Minuten spaeter nochmal die gleiche Datei (also die gleichen Sektoren) gelesen, und diesmal hat die HDD die korrekten Daten geliefert. Ein paar Minuten spaeter - wieder ein Lesefehler. Es war auch nicht auszuchmachen, was den Lesefehler getriggert hat. Es war nicht die I/O-Last, der die HDD ausgesetzt war, nicht die Temperatur, keine Vibrationen... es war total unerklaerlich und total zufaellig wann die Platte rummurkste. Es haette die Magnetisierung auf den Scheiben oder auch ein defekter/glitchender HDD-Controller sein koennen, wer weiss. (So ein Fehler ist natuerlich ganz perfide, da er ja bereits das Lesen sabotiert...)
Erschien eine Fehlermeldung oder hast Du die Dateien (grundsätzlich schon) nach Inhalt oder Prüfsumme - wohler eher ersteres - überprüft nach dem Transfer? Mir waren ja damals die defekten Dateien erst später, als es schon zu spät war, aufgefallen, hatte zuvor nicht leider nicht die Dateien überprüft, kostet ja auch unfaßbar viel Zeit.
Bei USB-Platten kommt neben Magnetisierungsproblemen und 'verrueckter HDD-Controller' mit der USB-SATA-Bridge noch eine weitere Komponente dazu, die einen Bug haben oder einen (sporadischen) Defekt entwickeln koennte und so Daten vermurksen kann...
Also wohl alles Defekte, die wohl keine Fehlermeldung - das ist ja das Ärgerliche - hervorrufen, somit können Dateien nach dem Transfer eben unbemerkt kaputt gehen. Bei mir war es ja mit zwei verschiedenen Billig-Notebooks von Aldi passiert, das identische Verhalten, das mit dem neuen Notebook noch nicht vorgekommen ist, falls ich es richtig erkannt habe.
Und dann der Hauptspeicher. Beim Kopieren von Dateien "passieren" die Daten den Hauptspeicher deines Computers. Bits koennen auch im Hauptspeicher drehen (du hast doch sicherlich schon mal von defekten RAM gehoert, der nur sporadisch seine Macken offenbart). Gehoerst du zu der Art von Leuten, die ihre Computer und auch ihren Hauptspeicher bis zur Grenze uebertakten? Wenn ja, dann Gratulation - du stehst bereits mit einem Bein im Datengrab... Wink
Nein, nein, ich habe ja von nichts eine Ahnung, das könnte ich gar nicht, bzw. wenn ich es versuchte, könnte ich den Computer auch gleich mit einem Hammer bearbeiten, das machte keinen Unterschied. Ich wäre schon zufrieden, wenn alles funktionieren würde, wie es sollte. Hatte seinerzeit auch den RAM mit Diagnoseprogrammen - MemTest oder so - überprüft, kein Fehler gefunden.
Wenn du vernuenftige Kabel hast, dann ist das praktisch nicht relevant. Natuerlich konnen durch passende elektromagnetische Stoerfelder Bits auf der Leitung umgedreht werden. Allerdings haben die jeweiligen Transport-Protokolle (ob nun USB, SATA fuer lokale Platten, oder Ethernet fuer ein NAS im Haus) Mechanismen um Bit-Dreher zu erkennen und auch um das Risiko fuer Bit-Dreher zu minimieren (Checksummen, Scrambling, Bit-Encodings). Schlechte Kabel, die die Spec nicht erfuellen, vermiesen die Signalkonsistenz kontinuierlich, und so etwas wird von den involvierten Controllern zuverlaessig bemerkt.
Benutze - eben um in dieser Hinsicht schon jegliches Risiko zu minimieren - nur die der jeweiligen Platte mitgelieferten Kabel, etwas, das Störfelder erzeugen könnte für die Platten, wüßte ich nicht, von den Platten, die ich momentan benutze, stehen 8 nebeneinander auf dem Tisch, Abstand vielleicht ab 3 cm Entfernung, unterm den Platten, also unterm Tisch sind auch noch welche. Aber ich nehme an Festplatten werden sich nicht gegenseitig nachteilig beeinflussen können. Die Lautsprecher stehen ca. 2 bis 3 Meter entfernt von den Platten, das Notebook ca. 15 cm von den Platten entfernt, ansonsten wüßte ich nicht, was hier noch stören könnte, Fernsehr, Musik-Anlage bestimmt auch nicht.
Jupp, es Vergleich nach Inhalt ist zuverlaessiger. Allerdings ist die Wahrscheinlichkeit fuer ein Versagen des MD5-Vergleiches doch recht gering, wie du richtigerweise bemerkt hast. Ich hatte dies in meinem original Post oben nicht richtig klar herausgestellt. Ich habe ihn bzgl. MD5-Vergleich noch einmal ueberarbeitet um die Versagens-Wahrscheinlichkeit (oder Versagens-Unwahrscheinlichkeit Wink ) etwas deutlicher zu machen. Aber letztendlich bleibt es dabei: Wenn zwei Dateien die gleiche Checksumme haben, so heisst dies noch nicht mit 100%er Wahrscheinlichkeit, dass beide Dateien gleich sind (sind wohl eher 99.99%, oder so -- Nachkommastellen hab ich jetzt nicht berechnet, eher kreatives Daumenpeilen Wink )
Ah, die Bearbeitung Deines Beitrages ist mir gar nicht aufgefallen, gut, daß Du es erwähnst, da gibt es wohl nicht extra eine Benachrichtiungs-eMail, auch sonst kann ich nur am neuen Text sehen, daß sich der Beitrag geändert hat.
Ja, zwar bestimmt gering das Versagen, vor allem wird das Überprüfen nach Prüfsumme auch nicht schneller sein als das nach Inhalt, und auch ansonsten keine Vorteile haben (außer vielleicht man wollte die Prüfsummen speichern, anderen zukommen lassen), so daß man ohnehin nach Inhalt überprüfen könnte.
(Schlussbemerkung: Wenn dir jederzeit zuverlaessige Kopien wichtig sind, dann sollte dir moeglicherweise auch wichtig sein, dass dir die Daten nicht so leicht auf dem Storage-Medium 'verrotten'. Schlagworte: ZFS, BFRS, ... wahrscheinlich dir aber bereits bekannt...)
Ja, zwangsläufig, habe ich vor längerer Zeit mal drüber gelesen. Aber ich weiß gar nicht mehr, wie man das verhindern kann, ich glaube, mit gewissen, nicht unerheblichen Kosten und / oder nicht unerheblichem Aufwand.
Aber selbst eine Prüfung nach Inhalt, könnte ich mir vorstellen, muß nicht immer richtig sein, oder doch?

Doch, die Pruefung nach Inhalt ist immer korrekt. Entweder der Inhalt ist identisch, oder er ist es nicht.
Ja, ist plausibel, dachte gerade noch an falsche Ergebnisse der Inhaltsüberprüfungen - auf den Datenwegen kann ja offenbar einiges passieren - aber selbst, wenn etwas passierte, würde der Inhalt ja maximal als ungleich angezeigt werden, die Wahrscheinlichkeit, daß ungleicher Inhalt als gleich angezeigt würde, ist ja wohl unbaßbar gering...oder gar nicht möglich? Falls doch, wohl auf jeden Fall weniger wahrscheinlich als eine identische Prüfsumme zweier dem Inhalt nach ungleichen Dateien. Aber ich habe davon überhaupt keine Ahnung.
Doch, die Pruefung nach Inhalt ist immer korrekt. Entweder der Inhalt ist identisch, oder er ist es nicht. Der Punkt, auf den du wohl hinauswillst ist die Frage: "Wie sicher sind meine Daten auf der Platte?" Kurz und buendig: Sie sind nicht sicher. Daten auf einer Platte koennen nicht nur durch Benutzerfehler verlorgen gehen, sondern auch durch Defekte oder Alterserscheinungen bei den Magnetscheiben (eine Form von "bit rot") oder der Elektronik (siehe mein Beispiel am Anfang dieses Posts). Deshalb immer Generationen-Backups machen...
Besonders passendes Stichwort auch hierzu: "sicheres entfernen" der Platte, könnte mir sehr gut vorstellen, gerade dadurch entstehen oft kaputte Dateien (von einem kaputten Dateisystem ganz zu schweigen), bei denen der Ursprung des Defekts für immer unbekannt bleiben wird.
Und, aa, aber man könnte ja - zunächst mal unabhängig von Wahrscheinlichkeiten - eben wohl auch den Fehler, etwa ein dahingerottes byte, bit sichern, ergäbe ja die gleiche Prüfsumme, den identischen Inhalt. Ich erinnere die Angabe eines gewissen prozentualen Anteils von verottenden bits pro Datentransfer, bzw. ich weiß den Wert nicht mehr, aber auf jeden Fall war es für damalige Verhältnisse 90er Jahre oder extrem unwahrscheinlich, heutzutage ist die Wahrscheinlichkeit des Datenverlustes / der Beschädigung deutlich höher, aber wohl immer noch gering, so daß man auf den Gedanken kommen könnte, dahinsiechende bits zu vernachlässigen, aber ob das gut wäre...
Ja, im Prinzip hast du schon Recht. Auch wenn die Wahrscheinlichkeit groesser als 0% ist (d.h. es kann passieren), so sollte man es doch so handhaben wie mit dem Lotto: Es sind immer andere, die den Jackpot gewinnen. Genauso wirst du wohl keine Probleme mit der MD5-Verifikation haben, und irgendwann wirst du vielleicht mal von irgendjemandem hoeren/lesen, bei dem es mit der MD5-Verifikation schief gegangen ist. (Die Wahrscheinlichkeit, dass du davon allerdings jemals hoerst, ist weit geringer als die Wahrscheinlichkeit des Vesagens der MD5-Verifikation selbst. Denn es kommt hier noch die Wahrscheinlichkeit dazu, ob und unter welchen Umstaenden derjenige die Datenkorruption bemerkt und ob er dies irgendwo postet/dokumentiert, als auch die Wahrscheinlichkeit, dass du das Posting ueberhaupt jemals findest und wahrnimmst Wink )
Ja, so eine Gedankenkette könnte man natürlich noch extrem weiterführen, etwa mit einem Zweifel daran, daß der Nutzer das Geschehen richtig wahrgenommen hat, verarbeitet hat, erklärt hat, die Überprüfung überhaupt richtig war, Beispiel: man überprüft versehentlich die selbe Datei (ist mir schon passiert), versehentlich in einem Dateimanager denselben Ordner geöffnet auf beiden Seiten, das dateiemanagereigene Prüfprogramm gibt nicht die identische Prüfsumme aus (wie ich es vermute würde) sondern unterschiedliche für die selbe Datei, kann auch bei Inhaltsüberprüfung passieren). Oder eine zu überprüfende Datei ist noch nicht vollständig 'runtergeladen / kopiert und wird schon überprüft.
User avatar
HolgerK
Power Member
Power Member
Posts: 5406
Joined: 2006-01-26, 22:15 UTC
Location: Europe, Aachen

Post by *HolgerK »

Biff wrote:Benutze - eben um in dieser Hinsicht schon jegliches Risiko zu minimieren - nur die der jeweiligen Platte mitgelieferten Kabel, etwas, das Störfelder erzeugen könnte für die Platten, wüßte ich nicht, von den Platten, die ich momentan benutze, stehen 8 nebeneinander auf dem Tisch, Abstand vielleicht ab 3 cm Entfernung, unterm den Platten, also unterm Tisch sind auch noch welche.
Der Klassiker ist das Handy auf dem Schreibtisch, das sich bei schlechtem Netzempfang regelmässig neu im Netz einloggt.
http://www.elektronik-kompendium.de/sites/kom/0905051.htm wrote:Bei der Verbindungsaufnahme zwischen Mobilfunktelefon (Handy) und der nächstgelegenen Basisstation senden beide Stationen mit ihrer vollen Leistung. Bei Handys in den D-Netzen (GSM-900) ist das maximal 2 Watt. Ist die Verbindung hergestellt, wird die Leistung heruntergeregelt, bis die minimale Leistung zum Aufrechterhalten der Verbindung gefunden ist. Dieses Phänomen hat jeder Mobilfunknutzer schon einmal sehend oder hörend miterlebt. Noch bevor ein Handy klingelt oder den Empfang einer SMS signalisiert, beginnt ein Lautsprecher in der unmittelbaren Nähe ein Knattern von sich zu geben oder die Darstellung eines Bildschirms beginnt kurzzeitig zu zittern. Diese Störungen werden vom Handy verursacht, das beim Verbindungsaufbau kurzzeitig mit voller Leistung sendet.
Gruss
Holger
Biff
Junior Member
Junior Member
Posts: 21
Joined: 2016-05-20, 17:02 UTC

Post by *Biff »

Vielen Dank, Holger.
Der Klassiker ist das Handy auf dem Schreibtisch, das sich bei schlechtem Netzempfang regelmässig neu im Netz einloggt.
Verzeihung, ich verstehe nicht ganz den Zusammenhang.

Vielen Dank auch für den Link.
User avatar
HolgerK
Power Member
Power Member
Posts: 5406
Joined: 2006-01-26, 22:15 UTC
Location: Europe, Aachen

Post by *HolgerK »

Verzeihung, ich verstehe nicht ganz den Zusammenhang.
Schreibtisch voller USB-Festplatten, und in im Nahbereich dieser Platten ein harmlos aussehendes Handy, das jedoch regelmässig, unbemerkt eine hochfrequente Störstrahlung mit 2 Watt Sendeleistung in den Äther abgibt, ergibt mit einer sehr hohen Wahrscheinlichkeit Übertragungsfehler, da weder USB-Kabel noch Festplattengehäuse dafür ausgelegt sind eine solches Störfeld 100%ig abzuschirmen.

Gruss
Holger
Make our planet great again
Biff
Junior Member
Junior Member
Posts: 21
Joined: 2016-05-20, 17:02 UTC

Post by *Biff »

Ist ja erstaunlich. Wie groß ist der Nahbereich, in dem ein Handy offenbar nicht liegen sollte?

Wird eine durch ein Handy / durch so eine Störstrahlung verursachte Fehlübertragung vom Computer bemerkt und gemeldet oder geschieht das völlig unbemerkt?
gdpr deleted 6
Power Member
Power Member
Posts: 872
Joined: 2013-09-04, 14:07 UTC

Post by *gdpr deleted 6 »

Biff wrote:Wird eine durch ein Handy / durch so eine Störstrahlung verursachte Fehlübertragung vom Computer bemerkt und gemeldet oder geschieht das völlig unbemerkt?
Die involvierten Komponenten -- d.h. die jeweiligen Controllers und (Low-Level) Protokoll-Stacks -- erkennen Uebertragungsfehler. In solch einem Fall wird die Uebetragung wiederholt bis die Uebetragung geklappt hat. Ist die Anzahl und/oder das Zeitfenster fuer diese Versuche ist i.d.R. protokoll-spezifisch limitiert. Schlagen auch diese Wiederholungsveruche fehl, dann signalisiert der fuer die Uebetragung verantwortliche (Host-)Controller dies auf die eine oder andere Weise. Es ist dann die Verantwortung des OS und der involvierten Treiber darauf passend zu reagieren.

Was dann genau passiert, haengt vom Kontext und der spezifischen Situation ab. So koennte z.B. das OS eine Fehlermeldung anzeigen. Das OS koennte aber auch genauso einfach einen Fehlercode an die Applikation zurueckgeben, in deren Auftrag die Transmission durchgefuehrt werden sollte, und es der Applikation ueberlassen wie sie auf das Problem reagiert...
User avatar
HolgerK
Power Member
Power Member
Posts: 5406
Joined: 2006-01-26, 22:15 UTC
Location: Europe, Aachen

Post by *HolgerK »

Wie gross der Nahbereich ist kann man nicht genau sagen, da er davon abhängt wie gut die Kabel abgeschirmt sind, die Masseverbindung an den Stecker/Buchsen ist und das USB-Gehäuse evtl. aus Kunststoff oder Metall mit Schlitzen besteht.
Wenn ich denn ein Handy hätte (nein, ich bin kein Handymast-Strahlungesoteriker) würde ich schon mindestens einen Meter einplanen.

Ob Übertragungsfehler festgestellt werden (dem Anwender gemeldet) liegt an Treiber und Protokoll der Übertragung (z.B. erneute Übertragung beim feststellen von falschen Prüfsummen).
Auch da gibt es dann auch noch unterschiedliche Wege auf denen Fehler auftreten können:
USB, oder interne Datenpfade der Festplattenelekronik, oder einfach nur das der Schreibkopf der Festplatte bzw. dessen Ansteuerelektronik gestört wird.
Letzteres wird im schlimmsten Fall vielleicht erst dann festgestellt, wenn Monate später beim Lesen der Festplattensektoren die aktuell berechnete Prüfsumme der Datenpakete nicht mit den gespeicherten Sektorprüfsummen übereinstimmen.
TC hat übrigens in seinem Kopierdialog einen Schalter "[_] Verifizieren" der direkt nach dem Schreiben ein Lesen und Überprüfen der Prüfsumme auf Dateiebene durchführt.
Verdoppelt zwar die Übertragungsdauer, aber im Zweifelsfall nützlich, wenn man nicht genau weiss wie zuverlässig der Drahtverhau auf dem Schreibtisch gegen Störstrahlungen gefeit ist.

Gruss
Holger
Biff
Junior Member
Junior Member
Posts: 21
Joined: 2016-05-20, 17:02 UTC

Post by *Biff »

Also, falls ich richtig verstehe, werden derartige Übertragungsfehler ausnahmslos angezeigt und würde somit nicht ohne Kenntnis des Nutzers passieren.

Bei einem vermuteten Nahbereich von mindestens einem Meter, könnte man ja davon ausgehen, daß ab einem Bereich von 3 m keine Schädlichkeit mehr besteht.
Ansonsten wäre das eine gute, mögliche Erklärung gewesen für die teilweise kaputten, nicht angezeigten Dateien von internen Platten auf externe zweier verschiedener Aldi-Notebooks in verschiedenen Räumen; die Notebooks, hatten aber einen deutlich größeren Abstand zu einem Handy als 3 m.

Ob Übertragungsfehler festgestellt werden (dem Anwender gemeldet) liegt an Treiber und Protokoll der Übertragung (z.B. erneute Übertragung beim feststellen von falschen Prüfsummen).
Also kann einen Datei durch derartige Einflüsse offenbar doch unbemerkt defekt übertragen werden, bzw. am Ziel kaputt werden durch eine mangelhafte Übertragung.
Letzteres wird im schlimmsten Fall vielleicht erst dann festgestellt, wenn Monate später beim Lesen der Festplattensektoren die aktuell berechnete Prüfsumme der Datenpakete nicht mit den gespeicherten Sektorprüfsummen übereinstimmen.
Das heißt, eine Prüfsumme wird automatisch für jede Datei / jedes Dateipaket gespeichert?
TC hat übrigens in seinem Kopierdialog einen Schalter "[_] Verifizieren" der direkt nach dem Schreiben ein Lesen und Überprüfen der Prüfsumme auf Dateiebene durchführt.
Verdoppelt zwar die Übertragungsdauer, aber im Zweifelsfall nützlich, wenn man nicht genau weiss wie zuverlässig der Drahtverhau auf dem Schreibtisch gegen Störstrahlungen gefeit ist.
Der Drahtverhau ist eine externe Platte, bzw. ihr Gehäuse?
Ja, transferiere Dateien so gut wie nur noch mit Überprüfung, die fast doppelte Dauer ist natürlich ganz schön unangenehm.
Post Reply