[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: server x proxmox



On Sun, Jan 17, 2021 at 10:59:52PM +0100, Marco Gaiarin wrote:
> Mandi! Marco Ciampa
>   In chel di` si favelave...
> 
> > In pratica tutto l'hardware professionale è basato su controller hw
> > locali o remoti, specialmente quelli su iSCSI, e su SAN.
> > Così si relega Proxmox all'hw "casalingo" e non professionale.
> 
> No, non è così semplice.
> 
> Da un lato il costo della RAM e la potenza dei processori rende ormai
> inutile o quasi controller dedicati; 

Su questo servirebbe qualche numero. Io anni fa avevo fatto qualche test.
Il problema non era la performance dei singoli controller ma la
scalabilità. Ovvero HW dedicato gestiva senza problemi diecine di dischi
contemporaneamente con performance lineari o quasi. Invece belle macchine
carrozzate, già con 6 dischi si "siedevano" completamente tanto che
aggiungere dischi _non_ migliorava minimamente le performance...

> dall'altro il RAID sta arrivando a fine
> vita, nel senso che stiamo velocemente arrivando al punto in cui una
> eventuale ricostruzione di un RAID guasto supera l'MTBF del disco che
> aggiungi.

Questo non lo capisco, o meglio non credo sia così.

Soprattutto il RAID protegge non solo dal guasto del singolo disco, che
succede, ma su dischi enterprise, ho ancora da vederne uno guasto, ma
soprattutto dalle perdite di dati su settori difettosi: senza RAID,
questi sono errori _non_ recuperabili.

Questo è il motivo per cui i filesystems nuovi come btrfs hanno il
checksum sui dati, ma comunque _non_ hanno l'Error Check & Recovery a
meno che, nuovamente, non si metta su un qualche tipo di RAID o ri
ridondanza.

Per cui il RAID, sw o hw che sia, su sistemi professionali, è
INDISPENSABILE. Tutti i sistemi professionali hanno ridondanze
distribuite: alimentatori doppi, RAM con ECC, e dischi RAID. E i dischi
RAID sono il minimo.

Ribadisco: i dischi _non_ garantiscono l'affidabilità sui dati, neanche
nel funzionamento normale! Lo standard SMART prevede che i dischi
_cerchino_ di ripristinare i dati, ma se non ci riescono, rimappano i
settori e li marcano temporaneamente come -bad- suggerendo che i dati
sono persi per sempre anche se il disco viene considerato da SMART come
"buono" e continua a funzionare perfettamente (perdendo dati) fino ad una
soglia predefinita di fabbrica (una certa percentuale) che, per quanto
piccola, su TB di dati, puoi immaginare che effetto disastroso puoi avere
per esempio su un database...

--

Saluton,
Marco Ciampa


Reply to: