15 votos

¿Por qué esta unidad SSD fallando con sectores defectuosos, y era previsible?

Nota: esta pregunta fue cerrado previamente como off-topic. Usted puede leer la discusión. Mis razones para pedirle que aquí están:

  • Esta unidad está fuera de línea el contenido de la caché de servidor para las escuelas en zonas rurales de Zambia.
  • Los servidores se crean a partir de imágenes de disco, y todo el contenido es reemplazable.
  • Tiene que ser barato porque Zambia escuelas con presupuesto limitado y habrá un montón de ellos.
  • También tiene que ser fiable porque puede estar 8 horas en carreteras en mal estado para reemplazar.
  • No puedo pedir aquí lo que las unidades no son "ultra-barato mierda".
  • Entonces, estamos haciendo nuestra propia investigación y experimentación en unidades que cumplan con estos criterios.
  • Mi incapacidad para reparar los sectores defectuosos mediante la sobreescritura de ellos (auto reasignar) desafiado mis suposiciones y quería saber por qué.
  • Pensé que tal vez una SEGURIDAD de BORRADO puede solucionar los malos sectores, pero quería opiniones de otros antes de que la basura de la unidad.
  • Pensé que podría haber perdido algo en el SMART datos que podían predecir el fracaso.

Esta es una Kingston de 240GB SSD de disco que estaba trabajando bien en el sitio durante unos 3 meses, y de repente se ha desarrollado los sectores defectuosos:

smartctl 5.41 2011-06-09 r3365 [i686-linux-3.2.20-net6501-121115-1cw] (local build)
Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net

=== START OF INFORMATION SECTION ===
Device Model:     KINGSTON SVP200S3240G
Serial Number:    50026B7228010E5C
LU WWN Device Id: 5 0026b7 228010e5c
Firmware Version: 502ABBF0
User Capacity:    240,057,409,536 bytes [240 GB]
Sector Size:      512 bytes logical/physical
Device is:        Not in smartctl database [for details use: -P showall]
ATA Version is:   8
ATA Standard is:  ACS-2 revision 3
Local Time is:    Tue Mar  5 17:10:24 2013 CAT
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x02) Offline data collection activity
                    was completed without error.
                    Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0) The previous self-test routine completed
                    without error or no self-test has ever 
                    been run.
Total time to complete Offline 
data collection:        (    0) seconds.
Offline data collection
capabilities:            (0x7b) SMART execute Offline immediate.
                    Auto Offline data collection on/off support.
                    Suspend Offline collection upon new
                    command.
                    Offline surface scan supported.
                    Self-test supported.
                    Conveyance Self-test supported.
                    Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                    power-saving mode.
                    Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                    General Purpose Logging supported.
Short self-test routine 
recommended polling time:    (   1) minutes.
Extended self-test routine
recommended polling time:    (  48) minutes.
Conveyance self-test routine
recommended polling time:    (   2) minutes.
SCT capabilities:          (0x0021) SCT Status supported.
                    SCT Data Table supported.

SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000f   084   084   050    Pre-fail  Always       -       10965286670575
  5 Reallocated_Sector_Ct   0x0033   100   100   003    Pre-fail  Always       -       16
  9 Power_On_Hours          0x0032   000   000   000    Old_age   Always       -       46823733462185
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       127
171 Unknown_Attribute       0x0032   000   000   000    Old_age   Always       -       0
172 Unknown_Attribute       0x0032   000   000   000    Old_age   Always       -       0
174 Unknown_Attribute       0x0030   000   000   000    Old_age   Offline      -       131
177 Wear_Leveling_Count     0x0000   000   000   000    Old_age   Offline      -       1
181 Program_Fail_Cnt_Total  0x0032   000   000   000    Old_age   Always       -       0
182 Erase_Fail_Count_Total  0x0032   000   000   000    Old_age   Always       -       0
187 Reported_Uncorrect      0x0032   000   000   000    Old_age   Always       -       49900
194 Temperature_Celsius     0x0022   033   078   000    Old_age   Always       -       33 (Min/Max 21/78)
195 Hardware_ECC_Recovered  0x001c   120   120   000    Old_age   Offline      -       235163887
196 Reallocated_Event_Count 0x0033   100   100   003    Pre-fail  Always       -       16
201 Soft_Read_Error_Rate    0x001c   120   120   000    Old_age   Offline      -       235163887
204 Soft_ECC_Correction     0x001c   120   120   000    Old_age   Offline      -       235163887
230 Head_Amplitude          0x0013   100   100   000    Pre-fail  Always       -       100
231 Temperature_Celsius     0x0013   100   100   010    Pre-fail  Always       -       0
233 Media_Wearout_Indicator 0x0000   000   000   000    Old_age   Offline      -       363
234 Unknown_Attribute       0x0032   000   000   000    Old_age   Always       -       208
241 Total_LBAs_Written      0x0032   000   000   000    Old_age   Always       -       208
242 Total_LBAs_Read         0x0032   000   000   000    Old_age   Always       -       1001

SMART Error Log not supported
SMART Self-test Log not supported
SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Ahora me pongo malo bloques en ciertos lugares en el disco:

root@iPad2:~# badblocks /dev/sda -v
Checking blocks 0 to 234431063
Checking for bad blocks (read-only test): 8394752 done, 1:15 elapsed
8394756 done, 1:21 elapsed
8394757 done, 1:23 elapsed
8394758 done, 1:24 elapsed
8394759 done, 1:27 elapsed
...
190882871one, 29:49 elapsed
190882888one, 29:53 elapsed
190882889one, 29:54 elapsed
190882890one, 29:56 elapsed
190882891one, 29:58 elapsed
done                                
Pass completed, 80 bad blocks found.

Parecen ser repetible, y auto de reasignación de la falla, por lo que no puede ser fijado por escrito a ellos:

root@iPad2:~# badblocks /dev/sda -wvf 8394756 8394756
/dev/sda is apparently in use by the system; badblocks forced anyway.
Checking for bad blocks in read-write mode
From block 8394756 to 8394756
Testing with pattern 0xaa: 8394756
done                                
Reading and comparing: done                                
Testing with pattern 0x55: done                                
Reading and comparing: done                                
Testing with pattern 0xff: done                                
Reading and comparing: done                                
Testing with pattern 0x00: done                                
Reading and comparing: done                                
Pass completed, 1 bad blocks found.

Y me da errores como este en los registros del sistema:

ata1.00: exception Emask 0x0 SAct 0x1 SErr 0x0 action 0x0
ata1.00: irq_stat 0x40000000
ata1.00: failed command: READ FPDMA QUEUED
ata1.00: cmd 60/08:00:08:30:00/00:00:01:00:00/40 tag 0 ncq 4096 in
         res 51/40:08:08:30:00/00:00:01:00:00/40 Emask 0x409 (media error) <F>
ata1.00: status: { DRDY ERR }
ata1.00: error: { UNC }
ata1.00: configured for UDMA/133
sd 0:0:0:0: [sda] Unhandled sense code
sd 0:0:0:0: [sda]  Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
sd 0:0:0:0: [sda]  Sense Key : Medium Error [current] [descriptor]
Descriptor sense data with sense descriptors (in hex):
        72 03 11 04 00 00 00 0c 00 0a 80 00 00 00 00 00 
        01 00 30 08 
sd 0:0:0:0: [sda]  Add. Sense: Unrecovered read error - auto reallocate failed
sd 0:0:0:0: [sda] CDB: Read(10): 28 00 01 00 30 08 00 00 08 00
end_request: I/O error, dev sda, sector 16789512
Buffer I/O error on device sda, logical block 2098689
ata1: EH complete

Ahora no entiendo por qué la auto reasignar está fallando en este disco. El smartctl de salida de todos se ve bien para mí. Sólo 16 de los sectores han sido reasignados, eso no es todo. Yo no puedo ver ninguna razón legítima por qué esta unidad se niega a reasignar los sectores. Es este modelo de SSD sólo roto o mal diseñado?

Notas:

  • atributo 174 es "una Pérdida de Energía Inesperada", según Kingston docs.
  • 131 inesperadas pérdidas de potencia es bastante malo.
  • atributo 187 (Reported_Uncorrect) es 49900 de un máximo de 65535
  • la temperatura más alta alguna vez, es muy elevado a 78 ° C

El más interesante contadores INTELIGENTES están ocultos por Kingston en esta unidad. Pero se puede inferir el número de sectores libres de atributo 196. Reallocated_Event_Count, que tiene la siguiente fórmula para el valor normalizado:

100 -(100* RBC / MRC)
RBC = Retired Block Count (Grown)
MRE = Maximum reallocation count

Dado que el valor normalizado es de 100, esto implica que la RBC << MRE, por lo que estamos lejos de haber agotado todos los sectores disponibles para su reasignación.

2voto

brianmcgee Puntos 170

Hoteles de Ssd parecen tener serios problemas de calidad. Podrá encontrar una gran cantidad de usuarios que tienen problemas con su unidad en particular. Sin embargo, creo que los vendedores también venden discos diferentes (por ejemplo, con otros chips NAND/controllers) bajo la misma etiqueta. Así, cada unidad puede comportarse de forma diferente.

El SMART valores dan ninguna indicación de que la unidad podría fallar pronto. En mi experiencia es la misma: de Repente, de la unidad de errores y, a continuación, el disco falla.

¿Cuáles son las razones por las que el uso de los Ssd? Veo las ventajas de los Ssd ya que no hay partes mecánicas y como son a prueba de polvo y producen menos calor. Sin embargo, también puedo ver un montón de desventajas.

por ejemplo, el número de escrituras a una sola celda de memoria que, incluso con la nivelación de desgaste se puede llegar rápidamente en una concurrida volumen por ejemplo, cuando se utiliza un sistema de archivos con journaling.

Y la electrónica también se ve afectado por la humedad o las altas temperaturas - el mismo que con los discos duros convencionales.

¿Por qué no utilizar más baratos los discos duros convencionales en lugar de y (si la raid no es necesario) enviar el servidor con unidades de repuesto que no están conectados hasta que las necesite como reemplazo (que ya están presentes en el caso de servidor o montados en un hot-swap de la jaula para que el disco puede ser utilizado en diferentes servidores). Entonces se podría prepararse un script en el campo o desde el control remoto (si es posible).

Mientras los discos duros convencionales no están encendidos, el transporte a su destino puede ser brutal...

Si hay varios servidores escolares / permanente clientes y confiable, redundante de la red, tal vez un sistema de ficheros distribuido, también podría ayudar a crear un a prueba de fallos del servidor de caché (por ejemplo, mediante el uso de glusterfs).

EnMiMaquinaFunciona.com

EnMiMaquinaFunciona es una comunidad de administradores de sistemas en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros sysadmin, hacer tus propias preguntas o resolver las de los demás.

Powered by: