[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: HS: pourquoi les disques SSD sont peu utilisé dans les serveurs



En ce qui me concerne, je trouve que les disques durs durent moins longtemps qu'avant. Mais ce n'est qu'une impression.

Il y a encore 10 ans, j'étais amené à tester des disques durs avec un MHDD, qu'on trouve dans UBCD (ultimate boot cd). Cet outil n'est plus maintenu depuis très longtemps, et permet de mesurer le temps d'accès par petits groupes de secteurs. Il affiche une carte des temps d'accès et a des compteurs distincts par rapidité de temps d'accès. 

J'ai pu voir des disques dont le temps d'accès de certaines zones montait à 1/2 seconde, alors que les autres étaient a moins de 50ms. Pourtant, aucune erreur smart, ni échec de lecture n'était trouvé. 

Un "formatage bas niveau" n'arrangeait pas les choses. J'ai mis le terme entre guillemets car depuis les années 2000 les disques ne permettent plus de faire un formatage bas niveau, certains outils fabricant de diagnostic mentionnent le terme "reset to zero" ou "write zeros". 

Écrire des zéros consiste à écrire partout des zéros (je n'invente pas l'eau chose en le disant), alors que le formatage bas niveau sert a réécrire toutes les données servant à repérer les secteurs. Ces repères occupent environ 20, 30 pourcents de la capacité brute de stockage d'un disque. Le reste stocké les données accessibles. 

Du coup quand je rencontre un disque qui présente des zones anormalement lentes, je ne suis pas très serein à l'idée de lui confier des données importantes.

Je veux juste illustrer qu'un disque magnétique qui tourne en apparence comme une horloge, et qui ne présente aucune alerte SMART, peut présenter des signes de défaillance ou de défaillance imminente (à chacun de fixer son seuil de tolérance).

Enfin, la société qui fait des statistiques sur des dizaines de milliers de HDD et SSD me paraît être une source plus intéressante qu'une expérience personnelle comme la mienne, ou même celle d'un dépanneur dans sa boutique.

J'ai été étonné de lire qu'un SSD est statistiquement plus durable qu'un HDD, mais j'en prends acte.

Cela n'est pas une incitation à ne pas faire de backup !

Le mer. 10 mai 2023 à 17:51, Eric DEGENETAIS <edegenetais@henix.fr> a écrit :
bah, la seule fois où j'ai vu mourir un HDD, il était tombé de la table juste avant que je le monte...
j'en ai qui tournent depuis 10-15 ans...
Ça cache quoi, cette moyenne ? Il n'y aurait pas des disques défectueux qui la plombent en cassant très prématurément ?

Cordialement
______________


Le jeu. 4 mai 2023 à 21:08, Dethegeek <dethegeek@gmail.com> a écrit :
Bonjour

Une info directement liée au sujet, et qui peut vous intéresser, à propos de la durée de vie des HDD et SSD. 

Promis, je ne déterre plus le sujet après cela.



Le mar. 25 avr. 2023 à 12:41, Dethegeek <dethegeek@gmail.com> a écrit :
Bonjour

Je me souviens qu'il a été abordé cette question (durabilité des SSD), et j'avais trouvé une étude de Facebook à ce sujet, que j'avais partagé. De tête, évitez les expositions à la chaleur qui impacte la durée de vie.

En voilà une autre qui a l'air intéressante. Étant sur un téléphone, le pdf est un peu difficile à lire, mais il y a des histogrammes et des graphiques tout mignons. Je prendrai le temps de le lire plus en détail ce soir, c'est intéressant. 


Le mar. 25 avr. 2023 à 12:30, Daniel Caillibaud <ml@lairdutemps.org> a écrit :
Bonjour,

J'ajoute mon grain de sel longtemps après ;-)

Le 12/04/23 à 10:34, Alex PADOLY <debian@padoly.besaba.com> a écrit :
> En regardant des catalogues de serveurs, même sur des serveurs coutant
> plus de 1000 ou 2000 Euros, on ne voit pas ou très peu de disques SSD,
> on y voit des disques SATA et SAS.

Ça doit dépendre des catalogues, en tout cas depuis 10~15 ans je n'ai quasiment eu que des
serveurs avec ssd seulement (et parfois ssd + disques rotatifs quand le ssd était cher et que
j'avais besoin de bcp de place).

Et chez ovh par ex la plupart des serveurs étaient en ssd depuis longtemps et désormais en
nvme, le hdd rotatif étant en général "en plus" si besoin (même si on peut encore choisir du
rotatif seul).
Et pour les serveurs avec bcp de To, c'est un mix nvme/rotatif, pour avoir le meilleur des deux
monde (nvme utilisé pour le cache des rotatifs, et suivant les fs l'indexation ou la
journalisation du fs, jamais utilisé mais de mémoire zfs en tire bien profit).

Et question fiabilité, en 20 ans et 30~40 serveurs (2 à 5 ensemble, changés tous
les 3~4 ans), j'ai eu des pannes de disque rotatif (avant 2010) mais jamais de ssd/nvme, et vu
les discussions sur les listes ça semble être aussi le cas des collègues (ça casse toujours,
mais bcp moins souvent).

C'est d'ailleurs un pb, les disques deviennent tellement fiables que les gens oublient le
backup ;-)
(alors que même si y'en a moins qui cassent sans prévenir, ça peut toujours arriver)

Il y a eu à une époque une fatigue accélérée des ssd à cause d'écriture fréquentes et
nombreuses, de /tmp par ex (mais sur un serveur c'est souvent configuré en ramdisk), et des
réglages de trim qu'il fallait optimiser, ce qui n'est plus nécessaire depuis longtemps (les
réglages par défaut des OS gèrent ça correctement).

--
Daniel

Ceux qui ne font rien ne se trompent jamais
Théodore de Banville


Reply to: