На Sat, 12 Apr 2008 14:02:39 +0200 Alex Mestiashvili <alexander.mestiashvili@biotec.tu-dresden.de> записано: > Hi ALL . > есть желание использовать shared fs , пока кандидатами являлись ocfs2 > и gfs/gfs2 . > честно говоря , впечатление обе производят довольно сырое . > сервера используют QLogic Corp. ISP2432-based 4Gb Fibre Channel для > соединения cо storage . > > пока сконяюсь больше к gfs , так как на сайте есть более-менее > нормальная документация . в отличие от OCFS2 которая хоть и работает > из коробки , но документации гораздо меньше ( или я не нашел ) . > с gfs2 дело не пошло , пробовал как пакеты из testing , так и > redhat-cluster-suite из cvs . > сделал все как было описано в оффициальном мануале , диски > смонтировал , при этом если создать файл на одной ноде , этот файл > видно и на другой , как и должно быть , но если писать что-то в файл > то на другом узле не видно что размер файла меняется . > вполне вероятно что дело в кривых руках , но посоветоваться не скем . > так-же по некоторым тестам bonnie++ gfs несколько шустрее ocfs2 . > shared storage нужен для разных задач , одной из самых тяжелых будет > mysql c innodb базами ~ 1- 4 G . > > интересно кто что думает об этих fs . какие плюсы, минусы , и вообше > можно ли их использовать в производстве ? > > Одно время тоже присматривались к кластерным фс, но как-то не впечатлило на первый взгляд. Будет очень неплохо, если потом какую-то выжимку из своих экспериментов расскажешь. Насчет сырости... у нас редхэтовский кластер работает заради clvm на стораджевых томах. Более-менее стабильно, но не так давно было, что перезапустили один из серверов, а он в кластер войти не может. Хотя на остальных вроде cman ничего криминального не сообщает. В итоге пришлось рестартовать cman на всех машинах. -- Best regards, Alexander GQ Gerasiov Contacts: e-mail: gq@cs.msu.su Jabber: gq@jabber.ru Homepage: http://gq.net.ru ICQ: 7272757 PGP fingerprint: 0628 ACC7 291A D4AA 6D7D 79B8 0641 D82A E3E3 CE1D
Attachment:
signature.asc
Description: PGP signature