Re: [OT (PVE)] Consiglio per storage replicato
Mandi! Marco Bertorello
In chel di` si favelave...
> Ma perchè Raid 1?
Perchè ho letto male il tuo messaggio iniziale, scusa.
Ma va da se che come si fa per zraid1, lo fai anche per zraid0 o come
caspita si chiama in ZFS... ;-)
> Nel caso è qualcosa che posso fare dalla gui di PVE o "a mano"?
Allora, almeno fino alla 5 in fase di installazione puoi installare il
sistema in ZFS, ma credo che la cosa più gista nel tuo caso sia quella di
installare, e in un secondo momento creare i volumi ZFS con i due dischi
rotativi, e poi far vedere il nuovo pool a PVE.
L'ho fatto in una sola occasione, ma ha funzionato senza problemi.
>> 2) ceph: puoi creare dei dischi 'ceph' (OSD) mettendo la cache sul disco
>> ssd. Anche con il 5, puoi farlo direttamente da interfaccia di PVE.
> Ah! non ho trovato molto a riguardo... evidentemente ho sbagliato
> termini di ricerca, mi puoi puntare verso qualche doc?
...la documentazione ufficiale Ceph di PVE... in teoria:
https://pve.proxmox.com/pve-docs/chapter-pveceph.html#pve_ceph_osds
+ Nei dischi SSD, lasci delle partizioni (GPT, non DOS!) libere;
+ i dischi rotativi devono essere ''puliti''; nel dubbio, dd if=/dev/zero
of=/dev/sdx e lascia correre qualche manciata di secondi.
fatto questo, e installato ceph in proxmox, dovresti poter configurare gli
OSD, ''vedendo'' sia i dischi che le partizioni di cache.
Se non vedi le partizioni di journal/WAL, vai di 'ceph-volume' a manella.
> Per la rete, tutti e tre gli host hanno 3 NIC 1000, di cui 2 in bond
> dedicate allo storage (già è così attualmente per GlusterFS)
Ok. Considera che è è possibie in questo caso la configurazione
'switchless' (colleghi i server tra loro) ma che è melgio mettere tutto in
uno stesso bridge:
https://pve.proxmox.com/wiki/Full_Mesh_Network_for_Ceph_Server
--
Gli ippopotami non fanno niente, basta la presenza
ippopotami non si nasce, si diventa (R. Vecchioni)
Reply to: