[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: [OT (PVE)] Consiglio per storage replicato



Mandi! Marco Bertorello
  In chel di` si favelave...

> Ma perchè Raid 1?

Perchè ho letto male il tuo messaggio iniziale, scusa.
Ma va da se che come si fa per zraid1, lo fai anche per zraid0 o come
caspita si chiama in ZFS... ;-)


> Nel caso è qualcosa che posso fare dalla gui di PVE o "a mano"?

Allora, almeno fino alla 5 in fase di installazione puoi installare il
sistema in ZFS, ma credo che la cosa più gista nel tuo caso sia quella di
installare, e in un secondo momento creare i volumi ZFS con i due dischi
rotativi, e poi far vedere il nuovo pool a PVE.

L'ho fatto in una sola occasione, ma ha funzionato senza problemi.


>> 2) ceph: puoi creare dei dischi 'ceph' (OSD) mettendo la cache sul disco
>>  ssd. Anche con il 5, puoi farlo direttamente da interfaccia di PVE.
> Ah! non ho trovato molto a riguardo... evidentemente ho sbagliato
> termini di ricerca, mi puoi puntare verso qualche doc?

...la documentazione ufficiale Ceph di PVE... in teoria:

	https://pve.proxmox.com/pve-docs/chapter-pveceph.html#pve_ceph_osds

+ Nei dischi SSD, lasci delle partizioni (GPT, non DOS!) libere;
+ i dischi rotativi devono essere ''puliti''; nel dubbio, dd if=/dev/zero
  of=/dev/sdx e lascia correre qualche manciata di secondi.

fatto questo, e installato ceph in proxmox, dovresti poter configurare gli
OSD, ''vedendo'' sia i dischi che le partizioni di cache.

Se non vedi le partizioni di journal/WAL, vai di 'ceph-volume' a manella.


> Per la rete, tutti e tre gli host hanno 3 NIC 1000, di cui 2 in bond
> dedicate allo storage (già è così attualmente per GlusterFS)

Ok. Considera che è è possibie in questo caso la configurazione
'switchless' (colleghi i server tra loro) ma che è melgio mettere tutto in
uno stesso bridge:

	https://pve.proxmox.com/wiki/Full_Mesh_Network_for_Ceph_Server

-- 
  Gli ippopotami non fanno niente, basta la presenza
  ippopotami non si nasce, si diventa			(R. Vecchioni)



Reply to: