[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: Problemi con iscsi e bonding in squeeze



Il 25/03/2011 15:19, Domenico Rotella ha scritto:


Il giorno 25 marzo 2011 14:53, Alessandro Baggi <alessandro.baggi@gmail.com <mailto:alessandro.baggi@gmail.com>> ha scritto:


    Per curiosità, siccome non dispongo di risorse per poter provare
    una SAN su HOST reali, sono costretto a provarlo su macchine
    virtuali, dove le performance sono abbastanza ridotte. A livello
    di configurazione e funzionalità sono abbastanza soddisfatto, ma a
    livello di performance non posso dire altrettanto. Come vi trovate
    con le vostre SAN a livello di performance? Inoltre, se posso, da
    quante macchine è composta la vostra SAN e che carico devono
    sopportare?


Personalmente ho una situazione un pò complessa, per cui la soddisfazione varia in base alla configurazione, mi spiego: 2 server in drbd per il datastore delle macchina virtuali, con bonding su rete a 1Gb e link riservato, nel senso uno switch solo per loro, raid5 hardware, pienamente soddisfatto, trasferisce ottimamente... un altro server mi esporta dello spazio disco per le macchine virtuali, anche qui raid 5 ma software, su hardware datato, bonding 2 schede a 100Mb, qui le performance sono un pò scarse, scrive a 30-40Mb poi ogni tanto "ha dei colli di bottiglia" però non mi serve che sia veloce, quest'ultimo per cui ho scritto è un vecchio bakstor della tanderg data che ho recuperato ed installato linux, ha molto spazio per gli hard disk ma in generale è in linea con le aspettative dell'hardware, sposta dati a circa 30Mb, mi servirà come datastore per il server di backup bacula per cui anche qui la velocità non è fondamentale. Concludendo, direi che le SAN con linux vanno in generale molto bene, a patto di isolare le reti quando possibile e comunque in linea con l'hardware....
Diciamo che ho tentato di separare un pò tutto,
2 server esx di cui non uso datastore locali se non per macchine di test
datastore per esx separato su 2 server in drbd
un datastore solo per un reparto aziendale in cui conserviamo documentazione tecnica
un server per dello spazio disco "lento"
un altro per bacula
un altro ancora per il datastore di bacula
Ho messo in piedi questa configurazione in modo che se un server "muore" io fermo tutto....

Spero di essere stato esauriente... :)

Domenico.

--
-------
"Eliminato l'impossibile ciò che resta per quanto improbabile è la verità".
Conan Doyle.
Grazie Domenico. Ho ancora qualche altra domanda al riguardo. Come ho gia detto la mia SAN è tutta virtuale per scopi di studio e prove, ed è composta da 4 target e un initiator. Ho provato a lanciare un hdparm -tT sull'initiator, ma il risultato è deludente. Ovvio che le prestazioni su macchine virtuali sono molto ridotte, le interfacce sono virtuali, (nel mio caso senza bonding), gli hdd anche virtuali. Ho provato a lanciare anche un hdparm su uno dei target, e il risultato è decisamente migliore. Dato che le prestazioni tra un singolo host e una SAN dovrebbero essere diverse, suppongo che con 4 target (reali e non virtuali) dovrebbe andare abbastanza bene, i risultati che mi vengono proposti da hdparm (su initiator) corrispondono quasi ad 1/4 delle prestazioni della singola macchina virtuale (pensandoci bene sembra tutto normale perche le risorse vengono divisi per 4 su un unico host per 4 vm), ma tralasciando questo, penso che al minimo la velocita dovrebbe raddoppiare, per cui non posso prendere in considerazione questi valori. Volevo chiederti se potevi darmi dei dati veritieri e non fittizzi come i miei.

L'altra domanda è al riguardo dei raid software. Come detto ho 4 target, ognuno in una vm, alla quale ho legato 4 hdd virtuali ad ognuna. Dato che l'obiettivo sarebbe quello di avere una grande quantita di dati ad alta velocita, su uno spazio vasto, ti volevo chiedere, data la tua esperienza è preferibile impostare un raid (software o hardware indipendentemente dalle prestazioni) prima su ogni singolo target, e poi uno sull'initiator che magari riprende tutti gli altri dev condivisi, oppure gestire il raid software direttamente dall'initiator? Suppongo la prima ma un confronto puo aiutare a trovare altre vie.

Ulteriormente, supponendo di voler fornire HA all'initiator della SAN, e supponendo di avere i target con raid hw, e supponendo di creare un ulteriore raid sugli initiator (raid5), creando il primo raid sul primo initiator, dopo averlo creato dovrebbe calcolare la parita per il failover. Creando invece il raid sul secondo initiator (sempre raid5), ricalcola la parita e crea problema con il primo initiator? oppure fornendo un --assume-clean funziona a dovere? oppure è meglio creare un lvm al posto del raid?

Spero di non essere andato fuori strada.




Reply to: