Snapraid: outofparity

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • Snapraid: outofparity

      Hallöchen,
      ich habe mich hier mal angemeldet, weil es so scheint, als wäre das eines der wenigen deutschsprachigen Foren in dem fitte Leute in Sachen "OMV & Snapraid" rumlaufen.

      Folgendes zu meinem Setting:
      OMV 4.1.11
      Drei Datenplatten zusammengefasst mit dem OMV-PlugIn "Union-Filesystem":

      Dazu gibt es eine ParityPlatte auf die Snapraid die Parity für die Datenplatten ablegt:
      /dev/sda1 | WDGreen4TB | ext4 | 3.58 TiB | 0.00 B| 3.58 TiB

      Als neueste Datenplatte ist hier die Tosh4TBOkt2018 dazugekommen, welche eine defekte 3TB WDGreen ersetzt hat.
      Das Rebuild hat relativ gut geklappt und infolge dessen habe ich auch das Snapraid komplett neu aufgesetzt. Lief jetzt auch einige Zeit lang gut, aber mittlerweile habe ich mit dem Spanraid einige Probleme, der Belegungstatus der Parity-Platte deutet es auch schon an: der liegt bei 100% und das obwohl die Daten auf den Datenplatten doch relativ gut aufgeteilt sind.

      Ich bekomme hier jetzt mittlerweile auch immer Fehlermeldungen und auch beim manuellen sync:
      root@omv:~# snapraid sync
      Self test...
      Loading state from /srv/dev-disk-by-label-WDGreen4TB/snapraid.content...
      Scanning disk Data_WDRed4TBMai2018...
      Scanning disk Data_WDRed4TBJuni2018...
      Scanning disk Data_Tosh4TBOk2018...
      Using 1824 MiB of memory for the file-system.
      Initializing...
      Resizing...
      Failed to allocate all the required parity space. You miss 59462385664 bytes.
      outofparity /srv/dev-disk-by-label-Tosh4TBOkt2018/[....]

      Your data requires more parity than the available space.
      Please move the files 'outofparity' to another data disk.
      WARNING! Without an usable Parity file, it isn't possible to sync.


      Was auffällig ist: die Dateien liegen alle auf der Datenplatte "Tosh4TBOkt2018". Anfangs habe ich auch noch Dateien auf andere Platten rübergeschoben, und dann hat es geklappt. Aber erstens ist das mittlerweile zuviel und zweitens auch nicht Sinn und Zweck der Sache.
      Mittlerweile habe ich das ganze Snapraidgedöns auch neu aufgesetzt, der Fehler bleibt der gleiche.

      Ich poste jetzt auch mal die beiden Konfigfiles:

      snapraid.conf:

      Quellcode

      1. # this file was automatically generated from
      2. # openmediavault Arrakis 4.1.11
      3. # and 'openmediavault-snapraid' 3.7.3
      4. block_size 256
      5. autosave 0
      6. #####################################################################
      7. # OMV-Name: Parity_WDGreen Drive Label: WDGreen4TB
      8. content /srv/dev-disk-by-label-WDGreen4TB/snapraid.content
      9. parity /srv/dev-disk-by-label-WDGreen4TB/snapraid.parity
      10. #####################################################################
      11. # OMV-Name: Data_WDRed4TBMai2018 Drive Label: WDRed4TBMai2018
      12. content /srv/dev-disk-by-label-WDRed4TBMai2018/snapraid.content
      13. disk Data_WDRed4TBMai2018 /srv/dev-disk-by-label-WDRed4TBMai2018
      14. #####################################################################
      15. # OMV-Name: Data_WDRed4TBJuni2018 Drive Label: WDRed4TBJuni2018
      16. content /srv/dev-disk-by-label-WDRed4TBJuni2018/snapraid.content
      17. disk Data_WDRed4TBJuni2018 /srv/dev-disk-by-label-WDRed4TBJuni2018
      18. #####################################################################
      19. # OMV-Name: Data_Tosh4TBOk2018 Drive Label: Tosh4TBOkt2018
      20. content /srv/dev-disk-by-label-Tosh4TBOkt2018/snapraid.content
      21. disk Data_Tosh4TBOk2018 /srv/dev-disk-by-label-Tosh4TBOkt2018
      22. exclude *.bak
      23. exclude *.unrecoverable
      24. exclude /tmp/
      25. exclude lost+found/
      26. exclude .content
      27. exclude aquota.group
      28. exclude aquota.user
      29. exclude snapraid.conf*
      Alles anzeigen

      und snapraid-diff.conf:


      Quellcode

      1. # this file was automatically generated from
      2. # openmediavault Arrakis 4.1.11
      3. # and 'openmediavault-snapraid' 3.7.3
      4. SYSLOG="true"
      5. DEBUG="false"
      6. SENDMAIL="true"
      7. RUN_SCRUB="true"
      8. SCRUB_FREQUENCY_IN_DAYS=7
      9. DEL_THRESHOLD=0
      10. SCRUB_PERCENT=100
      Alles anzeigen



      Ich hoffe ihr könnt mir bei meinem Problem helfen?!

      VG
      da_user
    • Re,

      es sieht für mich so aus, als ob du auf der Paritätsplatte auch den SnapRAID-Content ablegst ... das sollte man nicht machen, weil das den Platz von der Paritätsplatte abknappst.

      Das heisst im SnapRAID-Plugin "Verzeichniss" ... Datenplatten sollten Verzeichniss haben, Paritätsplatten nicht.

      Sc0rp

      ps: das "content"-File musst du nach dem Ändern der Einstellung wahrscheinlich per Hand löschen ...
    • da SnapRAID Datei orientiert wird, wird jede Datei auf ein vielfaches von 256KiB aufgerundet. Bei vielen kleinen Dateien entsteht da so einiges an Overhead.

      mach mal snapraid status, das gibt diesen Overhead aus.
      SW: OMV 4.1.22 (Arrakis), Snapraid mit mergerfs, Minidlna
      MSI B150M ECO, Intel Pentium G4400, 16GB Kingston DDR4, SSD 250GB, 4TB Daten, 3*8TB+6TB SnapRaid (8TB Parity,3+3+2TB Parity2), FSP Aurum S 400W, Fractal Node 804
    • Oh, das ist sehr interessant:

      Brainfuck-Quellcode

      1. Self test...
      2. Loading state from /srv/dev-disk-by-label-WDRed4TBMai2018/snapraid.content...
      3. Using 1707 MiB of memory for the file-system.
      4. SnapRAID status report:
      5. Files Fragmented Excess Wasted Used Free Use Name
      6. Files Fragments GB GB GB
      7. 169552 1 18 37.6 3622 275 93% Data_WDRed4TBMai2018
      8. 46316 0 0 8.7 3708 218 94% Data_WDRed4TBJuni2018
      9. 1436285 13 20 324.7 3578 2 99% Data_Tosh4TBOk2018
      10. --------------------------------------------------------------------------
      11. 1652153 14 38 370.9 10910 495 95%
      12. 97%|*
      13. |*
      14. |*
      15. |*
      16. |*
      17. |*
      18. |*
      19. 48%|*
      20. |*
      21. |*
      22. |*
      23. |*
      24. |*
      25. |*
      26. 0%|*____________o_____________o_____________o____________________o______o
      27. 32 days ago of the last scrub/sync 27
      28. The oldest block was scrubbed 32 days ago, the median 32, the newest 27.
      29. No sync is in progress.
      30. The 3% of the array is not scrubbed.
      31. You have 1615206 files with zero sub-second timestamp.
      32. Run the 'touch' command to set it to a not zero value.
      33. No rehash is in progress or needed.
      34. No error detected.
      Alles anzeigen

      324,7GB wasted - das ist mal eine Ansage.
      Mein Tipp ist, dass ich auf die meisten dieser Dateien im Zweifelsfalle verzichten kann, das dürften *.nfo und *.jpg aus meinem Filme- und Serienmedienarchiv sein. Werde mir wohl einfach mal alle Dateien kleiner als 256KiB auflisten lassen müssen. Bzw. erstmal herausfinden, wie das geht xD
      Gibt es eine Möglichkeit Snapraid anzuweisen, Dateien <256KiB zu ignorieren? NFO-Dateien dürfte ja mit

      Quellcode

      1. exclude *.nfo
      in der snapraid.conf zu erledigen sein?
    • Hallo,

      noch einen kleinen Tipp: mach nach einem sync immer noch ein snapraid scrub -p new. Dann checkt er gleich, ob beim sync der neuen Dateien Fehler in die Parity gekommen sind (z.B. wegen RAM ohne ECC oder Datenübertragungsfehler an Kabeln).
      ein snapraid touch solltest du auch machen (dann erkennt SnapRAID besser, wenn Dateien bewegt werden).

      den FAQ von SnapRAID gibt es hier: snapraid.it/faq. Dort gibt es auch einiges an weiteren Informationen.
      SW: OMV 4.1.22 (Arrakis), Snapraid mit mergerfs, Minidlna
      MSI B150M ECO, Intel Pentium G4400, 16GB Kingston DDR4, SSD 250GB, 4TB Daten, 3*8TB+6TB SnapRaid (8TB Parity,3+3+2TB Parity2), FSP Aurum S 400W, Fractal Node 804
    • Hi,
      danke, auch das sind wertvolle Tipps.

      Ich habe mithilfe von find mitterlweile herausgefunden, dass der große Teil dieser kleinen Dateien gar nicht die nfo und jpgs in den Medienarchiv sind. Es gibt einige, auch ältere BackUps div. Rechner deren Dateien einzeln in dem Dateisystem liegen. Auch div. entpackte Installer zu verschiedenen Programmen habe ich so mal Archiviert. Da kommt dann unter'm Strich einiges an Kleinkram zusammen. Das packe ich jetzt gerade in 7z und iso-Dateien. Damit dürfte ich schonmal einiges von dem Kleinkram zusammenfassen.

      VG
      da_user
    • Hi,
      ich hatte jetzt ein paar Problemchen. Beim löschen der vielen Kleinkramdateien ist wohl was schief gegangen und das Dateisystem auf einer der Platten hat sich verschluckt. Fsck hat da ziemlich lang dran rumgearbeitet und viele male ein 'y' gebraucht, jetzt scheint aber soweit wieder alles gut zu sein. Zumindest scheint Anhand der Meldungen keine Datei betroffen zu sein, wo ein Fehler in einer halben Katastrophe endet.
      Dann habe ich erstmal einen Snapraid-sync durchgeführt, das scrub und gerade läuft touch. Aber bei allen Befehlen die ich ausführe bekomme ich einen Fehler, hier beispielhaft das, was mir der sync-cron-Job per E-mail schickt:

      Quellcode

      1. WARNING! Content files '/srv/dev-disk-by-label-WDRed4TBMai2018/snapraid.content' and '/srv/dev-disk-by-label-Tosh4TBOkt2018/snapraid.content' have a different size!
      2. Likely one of the two is broken!
      3. Error in stat file/directory '/srv/dev-disk-by-label-Tosh4TBOkt2018/[....]'. Structure needs cleaning.

      Der Scrub-Befehl war da auch noch einen Schwung ausführlicher:

      Quellcode

      1. Error writing the content file '/srv/dev-disk-by-label-Tosh4TBOkt2018/snapraid.content.tmp' in sync(). Structure needs cleaning.

      Ich konnte leider in der FAQ mit dem Wörtchen "cleaning" nix finden. Könnt ihr mir weiterhelfen?
    • anscheinend wurd durch das fsck eine snapraid.content gekürzt. ändere mal von der kleineren den Namen und versuch es dann noch einmal.
      bei SnapRaid scrub zeigt die Ausgabe, dass diese Platte anscheinen nch read only ist. Vielleicht hat diese Platte ja doch noch Probleme...
      Hast du nach dem fsck einen Reboot gemacht?
      SW: OMV 4.1.22 (Arrakis), Snapraid mit mergerfs, Minidlna
      MSI B150M ECO, Intel Pentium G4400, 16GB Kingston DDR4, SSD 250GB, 4TB Daten, 3*8TB+6TB SnapRaid (8TB Parity,3+3+2TB Parity2), FSP Aurum S 400W, Fractal Node 804
    • Hi,
      beide Dateien waren gleich groß. Da die Toshiba Probleme gemacht hat, habe ich die content da einfach mal unbenannt und nach einem zweitem Scrub-Lauf war die wieder da.

      Das fcsk habe ich sogar in einer Art Reperaturkonsole durchgeführt. Da hat OMV/Linux selbst gemerkt dass was nicht stimmt, und gleich in die reingebootet. Entsprechend musste ich da auch wieder einen Neustart machen, dass alles läuft.

      Beim Zweiten Scrub-Job bekam ich jetzt auch noch folgende Meldung:

      Quellcode

      1. DANGER! In the array ther are 201 errors!
      2. They are from block 6326169 to 6326375, specialy at blocks: [....]
      3. To fix them use the command 'snapraid -e fix'

      Also den Befehl durchgeführt, was wohl auch nicht so von Erfolg gekrönt war:

      Quellcode

      1. Self test...
      2. Loading state from /srv/dev-disk-by-label-WDRed4TBMai2018/snapraid.content...
      3. Searching disk Data_WDRed4TBMai2018...
      4. Searching disk Data_WDRed4TBJuni2018...
      5. Searching disk Data_Tosh4TBOk2018...
      6. Error in stat file/directory '/srv/dev-disk-by-label-Tosh4TBOkt2018/Medienarchiv[....].nfo'. Structure needs cleaning.

      Was will mir snapraid mit dem "Structure needs cleaning" sagen?
    • also ich würde nicht mehr viel rumtun, anscheinend ist die Toshiba Festplatte nicht mehr ganz in Ordnung.
      was sagen da die SMART Werte?
      SW: OMV 4.1.22 (Arrakis), Snapraid mit mergerfs, Minidlna
      MSI B150M ECO, Intel Pentium G4400, 16GB Kingston DDR4, SSD 250GB, 4TB Daten, 3*8TB+6TB SnapRaid (8TB Parity,3+3+2TB Parity2), FSP Aurum S 400W, Fractal Node 804
    • Hi,

      jetzt zeigt OMV die in der GUI mit einem roten Punkt an und Quicktip sagt: "Das Laufwerk enthält einige fehlerhafte Sektoren."

      Vollständige Werte von der GUI Teil1::

      Quellcode

      1. smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.17.0-0.bpo.1-amd64] (local build)
      2. Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
      3. === START OF INFORMATION SECTION ===
      4. Device Model: TOSHIBA HDWQ140
      5. Serial Number: 881SK03YFAYG
      6. LU WWN Device Id: 5 000039 8bc4800ec
      7. Firmware Version: FJ1M
      8. User Capacity: 4,000,787,030,016 bytes [4.00 TB]
      9. Sector Size: 512 bytes logical/physical
      10. Rotation Rate: 7200 rpm
      11. Form Factor: 3.5 inches
      12. Device is: Not in smartctl database [for details use: -P showall]
      13. ATA Version is: ATA8-ACS (minor revision not indicated)
      14. SATA Version is: SATA 3.0, 6.0 Gb/s (current: 1.5 Gb/s)
      15. Local Time is: Mon Jan 14 17:38:28 2019 CET
      16. SMART support is: Available - device has SMART capability.
      17. SMART support is: Enabled
      18. AAM feature is: Unavailable
      19. APM level is: 128 (minimum power consumption without standby)
      20. Rd look-ahead is: Enabled
      21. Write cache is: Enabled
      22. ATA Security is: Disabled, NOT FROZEN [SEC1]
      23. Wt Cache Reorder: Enabled
      24. === START OF READ SMART DATA SECTION ===
      25. SMART overall-health self-assessment test result: PASSED
      26. General SMART Values:
      27. Offline data collection status: (0x84) Offline data collection activity
      28. was suspended by an interrupting command from host.
      29. Auto Offline Data Collection: Enabled.
      30. Self-test execution status: ( 0) The previous self-test routine completed
      31. without error or no self-test has ever
      32. been run.
      33. Total time to complete Offline
      34. data collection: ( 120) seconds.
      35. Offline data collection
      36. capabilities: (0x5b) SMART execute Offline immediate.
      37. Auto Offline data collection on/off support.
      38. Suspend Offline collection upon new
      39. command.
      40. Offline surface scan supported.
      41. Self-test supported.
      42. No Conveyance Self-test supported.
      43. Selective Self-test supported.
      44. SMART capabilities: (0x0003) Saves SMART data before entering
      45. power-saving mode.
      46. Supports SMART auto save timer.
      47. Error logging capability: (0x01) Error logging supported.
      48. General Purpose Logging supported.
      49. Short self-test routine
      50. recommended polling time: ( 2) minutes.
      51. Extended self-test routine
      52. recommended polling time: ( 454) minutes.
      53. SCT capabilities: (0x003d) SCT Status supported.
      54. SCT Error Recovery Control supported.
      55. SCT Feature Control supported.
      56. SCT Data Table supported.
      57. SMART Attributes Data Structure revision number: 16
      58. Vendor Specific SMART Attributes with Thresholds:
      59. ID# ATTRIBUTE_NAME FLAGS VALUE WORST THRESH FAIL RAW_VALUE
      60. 1 Raw_Read_Error_Rate PO-R-- 100 100 050 - 0
      61. 2 Throughput_Performance P-S--- 100 100 050 - 0
      62. 3 Spin_Up_Time POS--K 100 100 001 - 454
      63. 4 Start_Stop_Count -O--CK 100 100 000 - 1520
      64. 5 Reallocated_Sector_Ct PO--CK 100 100 050 - 4
      65. 7 Seek_Error_Rate PO-R-- 100 100 050 - 0
      66. 8 Seek_Time_Performance P-S--- 100 100 050 - 0
      67. 9 Power_On_Hours -O--CK 096 096 000 - 1745
      68. 10 Spin_Retry_Count PO--CK 130 100 030 - 0
      69. 12 Power_Cycle_Count -O--CK 100 100 000 - 1519
      70. 191 G-Sense_Error_Rate -O--CK 100 100 000 - 4268
      71. 192 Power-Off_Retract_Count -O--CK 097 097 000 - 1515
      72. 193 Load_Cycle_Count -O--CK 100 100 000 - 2225
      73. 194 Temperature_Celsius -O---K 100 100 000 - 39 (Min/Max 20/43)
      74. 196 Reallocated_Event_Count -O--CK 100 100 000 - 4
      75. 197 Current_Pending_Sector -O--CK 100 100 000 - 0
      76. 198 Offline_Uncorrectable ----CK 100 100 000 - 0
      77. 199 UDMA_CRC_Error_Count -O--CK 200 253 000 - 0
      78. 220 Disk_Shift -O---- 100 100 000 - 0
      79. 222 Loaded_Hours -O--CK 097 097 000 - 1201
      80. 223 Load_Retry_Count -O--CK 100 100 000 - 0
      81. 224 Load_Friction -O---K 100 100 000 - 0
      82. 226 Load-in_Time -OS--K 100 100 000 - 637
      83. 240 Head_Flying_Hours P----- 100 100 001 - 0
      84. ||||||_ K auto-keep
      85. |||||__ C event count
      86. ||||___ R error rate
      87. |||____ S speed/performance
      88. ||_____ O updated online
      89. |______ P prefailure warning
      90. General Purpose Log Directory Version 1
      91. SMART Log Directory Version 1 [multi-sector log support]
      92. Address Access R/W Size Description
      93. 0x00 GPL,SL R/O 1 Log Directory
      94. 0x01 SL R/O 1 Summary SMART error log
      95. 0x02 SL R/O 51 Comprehensive SMART error log
      96. 0x03 GPL R/O 64 Ext. Comprehensive SMART error log
      97. 0x04 GPL,SL R/O 8 Device Statistics log
      98. 0x06 SL R/O 1 SMART self-test log
      99. 0x07 GPL R/O 1 Extended self-test log
      100. 0x08 GPL R/O 2 Power Conditions log
      101. 0x09 SL R/W 1 Selective self-test log
      102. 0x0c GPL R/O 2048 Pending Defects log
      103. 0x10 GPL R/O 1 SATA NCQ Queued Error log
      104. 0x11 GPL R/O 1 SATA Phy Event Counters log
      105. 0x24 GPL R/O 12288 Current Device Internal Status Data log
      106. 0x30 GPL,SL R/O 9 IDENTIFY DEVICE data log
      107. 0x80-0x9f GPL,SL R/W 16 Host vendor specific log
      108. 0xa7 GPL VS 8 Device vendor specific log
      109. 0xe0 GPL,SL R/W 1 SCT Command/Status
      110. 0xe1 GPL,SL R/W 1 SCT Data Transfer
      111. SMART Extended Comprehensive Error Log Version: 1 (64 sectors)
      112. No Errors Logged
      113. SMART Extended Self-test Log Version: 1 (1 sectors)
      114. Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
      115. # 1 Short offline Completed without error 00% 1732 -
      116. # 2 Short offline Completed without error 00% 1709 -
      117. # 3 Short offline Completed without error 00% 1688 -
      118. # 4 Short offline Completed without error 00% 1666 -
      119. # 5 Short offline Completed without error 00% 1642 -
      120. # 6 Short offline Completed without error 00% 1604 -
      121. # 7 Short offline Completed without error 00% 1517 -
      122. # 8 Short offline Completed without error 00% 1466 -
      123. SMART Selective self-test log data structure revision number 1
      124. SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
      125. 1 0 0 Not_testing
      126. 2 0 0 Not_testing
      127. 3 0 0 Not_testing
      128. 4 0 0 Not_testing
      129. 5 0 0 Not_testing
      130. Selective self-test flags (0x0):
      131. After scanning selected spans, do NOT read-scan remainder of disk.
      132. If Selective self-test is pending on power-up, resume after 0 minute delay.
      133. SCT Status Version: 3
      134. SCT Version (vendor specific): 1 (0x0001)
      135. SCT Support Level: 1
      136. Device State: SMART Off-line Data Collection executing in background (4)
      137. Current Temperature: 39 Celsius
      138. Power Cycle Min/Max Temperature: 39/40 Celsius
      139. Lifetime Min/Max Temperature: 20/43 Celsius
      140. Under/Over Temperature Limit Count: 0/0
      141. SCT Temperature History Version: 2
      142. Temperature Sampling Period: 1 minute
      143. Temperature Logging Interval: 1 minute
      144. Min/Max recommended Temperature: 5/55 Celsius
      145. Min/Max Temperature Limit: 5/55 Celsius
      146. Temperature History Size (Index): 478 (278)
      147. Index Estimated Time Temperature Celsius
      148. 286 2019-01-14 09:51 39 ********************
      149. [.... weggelassen damits nicht viel zu lang wird...]
      Alles anzeigen
    • Und Teil2:

      Quellcode

      1. SCT Error Recovery Control:
      2. Read: Disabled
      3. Write: Disabled
      4. Device Statistics (GP Log 0x04)
      5. Page Offset Size Value Flags Description
      6. 0x01 ===== = = === == General Statistics (rev 2) ==
      7. 0x01 0x008 4 1519 --- Lifetime Power-On Resets
      8. 0x01 0x010 4 1745 --- Power-on Hours
      9. 0x01 0x018 6 11414487439 --- Logical Sectors Written
      10. 0x01 0x020 6 19281666 --- Number of Write Commands
      11. 0x01 0x028 6 84051374904 --- Logical Sectors Read
      12. 0x01 0x030 6 205898787 --- Number of Read Commands
      13. 0x02 ===== = = === == Free-Fall Statistics (rev 1) ==
      14. 0x02 0x010 4 4268 --- Overlimit Shock Events
      15. 0x03 ===== = = === == Rotating Media Statistics (rev 1) ==
      16. 0x03 0x008 4 1744 --- Spindle Motor Power-on Hours
      17. 0x03 0x010 4 1201 --- Head Flying Hours
      18. 0x03 0x018 4 2225 --- Head Load Events
      19. 0x03 0x020 4 4 --- Number of Reallocated Logical Sectors
      20. 0x03 0x028 4 0 --- Read Recovery Attempts
      21. 0x03 0x030 4 0 --- Number of Mechanical Start Failures
      22. 0x04 ===== = = === == General Errors Statistics (rev 1) ==
      23. 0x04 0x008 4 0 --- Number of Reported Uncorrectable Errors
      24. 0x04 0x010 4 76 --- Resets Between Cmd Acceptance and Completion
      25. 0x05 ===== = = === == Temperature Statistics (rev 1) ==
      26. 0x05 0x008 1 39 --- Current Temperature
      27. 0x05 0x010 1 38 N-- Average Short Term Temperature
      28. 0x05 0x018 1 35 N-- Average Long Term Temperature
      29. 0x05 0x020 1 43 --- Highest Temperature
      30. 0x05 0x028 1 20 --- Lowest Temperature
      31. 0x05 0x030 1 40 N-- Highest Average Short Term Temperature
      32. 0x05 0x038 1 34 N-- Lowest Average Short Term Temperature
      33. 0x05 0x040 1 36 N-- Highest Average Long Term Temperature
      34. 0x05 0x048 1 35 N-- Lowest Average Long Term Temperature
      35. 0x05 0x050 4 0 --- Time in Over-Temperature
      36. 0x05 0x058 1 55 --- Specified Maximum Operating Temperature
      37. 0x05 0x060 4 0 --- Time in Under-Temperature
      38. 0x05 0x068 1 5 --- Specified Minimum Operating Temperature
      39. 0x06 ===== = = === == Transport Statistics (rev 1) ==
      40. 0x06 0x008 4 648 --- Number of Hardware Resets
      41. 0x06 0x018 4 0 --- Number of Interface CRC Errors
      42. 0x07 ===== = = === == Solid State Device Statistics (rev 1) ==
      43. |||_ C monitored condition met
      44. ||__ D supports DSN
      45. |___ N normalized value
      46. SATA Phy Event Counters (GP Log 0x11)
      47. ID Size Value Description
      48. 0x0001 4 0 Command failed due to ICRC error
      49. 0x0002 4 0 R_ERR response for data FIS
      50. 0x0003 4 0 R_ERR response for device-to-host data FIS
      51. 0x0004 4 0 R_ERR response for host-to-device data FIS
      52. 0x0005 4 0 R_ERR response for non-data FIS
      53. 0x0006 4 0 R_ERR response for device-to-host non-data FIS
      54. 0x0007 4 0 R_ERR response for host-to-device non-data FIS
      55. 0x0008 4 0 Device-to-host non-data FIS retries
      56. 0x0009 4 1 Transition from drive PhyRdy to drive PhyNRdy
      57. 0x000a 4 1 Device-to-host register FISes sent due to a COMRESET
      58. 0x000b 4 0 CRC errors within host-to-device FIS
      59. 0x000d 4 0 Non-CRC errors within host-to-device FIS
      60. 0x000f 4 0 R_ERR response for host-to-device data FIS, CRC
      61. 0x0010 4 0 R_ERR response for host-to-device data FIS, non-CRC
      62. 0x0012 4 0 R_ERR response for host-to-device non-data FIS, CRC
      63. 0x0013 4 0 R_ERR response for host-to-device non-data FIS, non-CRC
      Alles anzeigen

      Da die Platte jetzt noch nicht alt ist und auf jeden Fall in der Gewährleistung ist, werde ich mir da wohl eine andere 4TB organisieren und mal gucken, was Amazon zu der Toshiba sagt...
    • Re,

      da_user schrieb:

      Da die Platte jetzt noch nicht alt ist und auf jeden Fall in der Gewährleistung ist, werde ich mir da wohl eine andere 4TB organisieren und mal gucken, was Amazon zu der Toshiba sagt...
      Einfach die SMART-Daten ausdrucken und dazu legen - ich hoffe nur, der G-Sensor hat nicht angeschlagen :P.

      Sc0rp
    • Ich wüsste nicht, warum der G-Sensor anschlagen hätte sollen. G-Kräfte hätten nur beim Transport auftreten können, und da sensoriert der m.W. nix, bzw. die Köpfe sind sowieso in Parkposition.

      Jetzt ist erstmal eine neue bestellt, diesesmal wieder eine WDRed. Seagate wäre noch in der Auswahl gewesen, war aber heute vormittag irgendwie nicht verfügbar. Weiß der Geier warum.

      Ausdrucken würde ich Amazon diese Tabelle, sollte ja reichen:

      Quellcode

      1. SMART Attributes Data Structure revision number: 16
      2. Vendor Specific SMART Attributes with Thresholds:
      3. ID# ATTRIBUTE_NAME FLAGS VALUE WORST THRESH FAIL RAW_VALUE
      4. 1 Raw_Read_Error_Rate PO-R-- 100 100 050 - 0
      5. 2 Throughput_Performance P-S--- 100 100 050 - 0
      6. 3 Spin_Up_Time POS--K 100 100 001 - 454
      7. 4 Start_Stop_Count -O--CK 100 100 000 - 1520
      8. 5 Reallocated_Sector_Ct PO--CK 100 100 050 - 4
      9. 7 Seek_Error_Rate PO-R-- 100 100 050 - 0
      10. 8 Seek_Time_Performance P-S--- 100 100 050 - 0
      11. 9 Power_On_Hours -O--CK 096 096 000 - 1745
      12. 10 Spin_Retry_Count PO--CK 130 100 030 - 0
      13. 12 Power_Cycle_Count -O--CK 100 100 000 - 1519
      14. 191 G-Sense_Error_Rate -O--CK 100 100 000 - 4268
      15. 192 Power-Off_Retract_Count -O--CK 097 097 000 - 1515
      16. 193 Load_Cycle_Count -O--CK 100 100 000 - 2225
      17. 194 Temperature_Celsius -O---K 100 100 000 - 39 (Min/Max 20/43)
      18. 196 Reallocated_Event_Count -O--CK 100 100 000 - 4
      19. 197 Current_Pending_Sector -O--CK 100 100 000 - 0
      20. 198 Offline_Uncorrectable ----CK 100 100 000 - 0
      21. 199 UDMA_CRC_Error_Count -O--CK 200 253 000 - 0
      22. 220 Disk_Shift -O---- 100 100 000 - 0
      23. 222 Loaded_Hours -O--CK 097 097 000 - 1201
      24. 223 Load_Retry_Count -O--CK 100 100 000 - 0
      25. 224 Load_Friction -O---K 100 100 000 - 0
      26. 226 Load-in_Time -OS--K 100 100 000 - 637
      27. 240 Head_Flying_Hours P----- 100 100 001 - 0
      28. ||||||_ K auto-keep
      29. |||||__ C event count
      30. ||||___ R error rate
      31. |||____ S speed/performance
      32. ||_____ O updated online
      33. |______ P prefailure warning
      Alles anzeigen

      Edit: eine Linux-GUI Anwendung für die Laufwerksverwaltung (gnome-disks) meldet:

      Quellcode

      1. Selbsteinschätzung: Grenzwert wurde nicht überschritten
      2. Allgemeine Einschätzung: Das Laufwerk ist in Ordnung, 4 fehlerhafte Sektoren

      Frage noch: gibts einen feschen Linux-Befehl, mit dem ich die HDD vor dem verschicken überschreiben kann?

      BTW: mir scheints, als würde das Forum bei Code führende Leerzeichen abzwacken. Wäre Irgendwie doof...