[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: kvm | shared san storage



Hoi Wouter, allen,

On 05/04/2016 07:21 AM, Wouter Verhelst wrote:
Omdat je er expliciet naar vraagt (en omdat ik zelf de
reference-implementatie ervan beheer): nbd wordt meer en meer het
Ja fijn, dank voor de uitgebreide info.

Ik heb, puur uit interesse, afgelopen weekend ook eens een paar
benchmarks gedraaid (AoE vs iSCSI vs NBD, alles over 1GigE tussen
dezelfde client en server), en daaruit had ik het gevoel dat NBD niet
hoeft onder te doen (qua performance) tov de andere twee. Details zet
ik later nog op mijn blog.
Benieuwd, heb je blog via google inmiddels gelocaliseerd. :-) Laat je
hier even weten wanneer je die details op je blog gezet hebt..? (dan
hoef ik die url niet zo strak in de gaten te houden)

Qua configuratie is iSCSI wel een ramp. Veel complexer dan
noodzakelijk; duidelijk een geval van "design by committee". AoE
werkt enkel over ethernet (zoals de naam al zegt) en is dan ook niet
routable (wat voor iSCSI en NBD wél het geval is). Verder is er ook
nog iets dat FCoE heet, maar daar heb ik niet naar gekeken.
Ik vind iSCSI inderdaad vreselijk, zoveel gedoe voordat je iets
geconfigureerd hebt. Wanneer het dan eenmaal werkt, werkt het overigens
wèl heel goed, moet ik zeggen. (wij gebruiken iscsi naar freenas)

Voor virtualisatie met iscsi / nbd zouden we dan nog een aparte san moeten implementeren, terwijl in geval van proxmox de san 'ingebakken' zit in het product: drie nodes, alle drie als virtualisatie hosts, met op alle drie tevens de ceph storage. (rbd)

Ik heb proxmox nu draaien in een testopstelling, en tot nu toe ben ik
zeer onder de indruk.

MJ


Reply to: