[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: Problemi con iscsi e bonding in squeeze





Il giorno 25 marzo 2011 16:53, Domenico Rotella <rotella.domenico@gmail.com> ha scritto:

Correzione di hdparm del server con raid hw (errore di copia/incolla.... ;)
questo su un server con un raid5 hardware
 Timing cached reads:   14434 MB in  1.99 seconds = 7240.88 MB/sec
 Timing buffered disk reads: 516 MB in  3.01 seconds = 171.80 MB/sec




Il giorno 25 marzo 2011 16:12, Alessandro Baggi <alessandro.baggi@gmail.com> ha scritto:


Grazie Domenico. Ho ancora qualche altra domanda al riguardo. Come ho gia detto la mia SAN è tutta virtuale per scopi di studio e prove, ed è composta da 4 target e un initiator. Ho provato a lanciare un hdparm -tT sull'initiator, ma il risultato è deludente. Ovvio che le prestazioni su macchine virtuali sono molto ridotte, le interfacce sono virtuali, (nel mio caso senza bonding), gli hdd anche virtuali. Ho provato a lanciare anche un hdparm su uno dei target, e il risultato è decisamente migliore. Dato che le prestazioni tra un singolo host e una SAN dovrebbero essere diverse, suppongo che con 4 target (reali e non virtuali) dovrebbe andare abbastanza bene, i risultati che mi vengono proposti da hdparm (su initiator) corrispondono quasi ad 1/4 delle prestazioni della singola macchina virtuale (pensandoci bene sembra tutto normale perche le risorse vengono divisi per 4 su un unico host per 4 vm), ma tralasciando questo, penso che al minimo la velocita dovrebbe raddoppiare, per cui non posso prendere in considerazione questi valori.
Volevo chiederti se potevi darmi dei dati veritieri e non fittizzi come i miei.

Premesso che in calce ti copio i result di un mio server reale, credo sia difficile fare una stima ed ottenere dati veritieri nella tua configurazione.
Mi sembra di capire che tu abbia tutto sulla stessa macchina, questo vuol dire:
sistema operativo
qualcosa tipo vm-server 
le macchine virtuali
i dischi virtuali condivisi
un unico link virtuale. che unisce tutto il sistema....
L'optimum sarebbe poter dividere tutto, io come ti dicevo ho l'esx su una macchina, il datastore su un altra, dove le macchine sono in drbd, ma questo è solo per sicurezza, non aumenta la velocità, ed ho tutte reti reali diverse con uno switch, quindi:
1 - rete lan
2 - rete san per collegare le macchine virtuali all'esx
3 - rete drbd per collegare gli host replicati
poi ok la wan e la dmz ma non sono influenti....
tutti i link sono in rete Gb
questo è hdparm su un sistema raid5 software su un sistema non troppo performante
 Timing cached reads:   1436 MB in  2.00 seconds = 717.41 MB/sec
 Timing buffered disk reads: 660 MB in  3.02 seconds = 218.22 MB/sec

questo su un server con un raid5 hardware
 Timing cached reads:   1436 MB in  2.00 seconds = 7240.80 MB/sec
 Timing buffered disk reads: 660 MB in  3.02 seconds = 171.80 MB/sec


 

L'altra domanda è al riguardo dei raid software. Come detto ho 4 target, ognuno in una vm, alla quale ho legato 4 hdd virtuali ad ognuna. Dato che l'obiettivo sarebbe quello di avere una grande quantita di dati ad alta velocita, su uno spazio vasto, ti volevo chiedere, data la tua esperienza è preferibile impostare un raid (software o hardware indipendentemente dalle prestazioni) prima su ogni singolo target, e poi uno sull'initiator che magari riprende tutti gli altri dev condivisi, oppure gestire il raid software direttamente dall'initiator? Suppongo la prima ma un confronto puo aiutare a trovare altre vie.

Fammi capire, vuoi creare un raid con dello spazio disco importato via iscsi ??
Sinceramente è una cosa che non ho mai fatto, ma credo che non abbia molto senso.... difficile da gestire, se si guasta un pezzo ? cosa si degrada  ? Quale disco in quale raid ?
Se vuoi avere ottime performance l'unica strada è un unico archivio esportato via iscsi che colleghi in Gb all'initiator, poi dipende anche se trasferisci tanti piccoli file o grandi...

 

Ulteriormente, supponendo di voler fornire HA all'initiator della SAN, e supponendo di avere i target con raid hw, e supponendo di creare un ulteriore raid sugli initiator (raid5), creando il primo raid sul primo initiator, dopo averlo creato dovrebbe calcolare la parita per il failover. Creando invece il raid sul secondo initiator (sempre raid5), ricalcola la parita e crea problema con il primo initiator? oppure fornendo un --assume-clean funziona a dovere? oppure è meglio creare un lvm al posto del raid?

Come sopra, non ho mai sentito una cosa del genere ma sul mio sistema non la farei, se ti può servire come consiglio...
Domenico. 


--
-------
"Eliminato l'impossibile ciò che resta per quanto improbabile è la verità".
Conan Doyle.



--
-------
"Eliminato l'impossibile ciò che resta per quanto improbabile è la verità".
Conan Doyle.

Reply to: