Разница в том что вы используете зеркало, тоже
подумывал перейти на зеркало, скорость по тестам в разы лучше
Для быстрого raidz{1..3}
Требования к железу растут очень сильно. У меня например ctl(iscsi)
демон кушал ресурсов меньше, чем система постоянно производящая
выгребку данных из zil и записью на диск(3 raidz2 по 6 дисков в
jbod), порой драматически опускаясь до 10 мб/с; попросту не
справлялся процессор(2xE5-2609).
По железкам посмотрите вот здесь:
http://www.solarisinternals.com/wiki/index.php/ZFS_Best_Practices_Guide#RAIDZ_Configuration_Requirements_and_Recommendations
По поводу дедупликации, подумайте ещё пару раз, стоит ли вам вообще
заморачиваться на эту тему, если не отошло, то вот,
просвящяйтесь(вообще не уверен, что дедуп есть на ZOL):
https://blogs.oracle.com/roch/entry/dedup_performance_considerations1
Спасибо за статистику - интересно, конечно.
Но я не говорил о космических аппаратах :)
Я рассказывал про свои наблюдения, у меня конфигурации чаще
всего другие: 2 винта, 4-8 гигов оперативки
Также напоминаю, что ZFS требует, чтобы память была хотя-бы ECC,
иначе вас может постичь Scrub of death
http://blog.brianmoses.net/2014/03/why-i-chose-non-ecc-ram-for-my-freenas.html
http://jrs-s.net/2015/02/03/will-zfs-and-non-ecc-ram-kill-your-data/
Но это опять же, можно обойти(на свой страх и риск разумеется):
http://arstechnica.com/civis/viewtopic.php?f=2&t=1235679&p=26303271#p26303271
После всех ужастей(потеря пула при апгрейде версии пула[из личного,
так сказать]) и прочего(требования по железу), не проще по старинке
ext4/xfs+lvm2 или просто btrfs?
On 12.05.2015 12:07, Фахретдинов Руслан
wrote:
Здравствуйте,
svx.
Вы писали 12 мая 2015 г., 14:55:17:
|
и на фре, и на солярисе скорости нет.
Уж извольте, с Вами тут совсем не согласиться.
Вот у меня, на пуле из 20 дисков 900x10krpm с 2мя ссд
для зил и 120 гб арк, всё летает. Задержки ~до 10 мс.
capacity operations bandwidth
pool alloc free read write read write
---------- ----- ----- ----- ----- ----- -----
fastank 881G 6.45T 6.35K 34 258M 207K
mirror 97.9G 734G 566 0 22.9M 0
da4 - - 354 0 23.3M 0
da5 - - 365 0 23.1M 0
mirror 98.0G 734G 672 0 26.4M 0
da6 - - 468 0 26.9M 0
da7 - - 468 0 26.4M 0
mirror 97.9G 734G 758 0 28.4M 0
da8 - - 470 0 28.9M 0
da9 - - 473 0 29.4M 0
mirror 97.8G 734G 799 0 30.7M 0
da10 - - 480 0 31.1M 0
da11 - - 495 0 30.9M 0
mirror 97.8G 734G 781 0 29.8M 0
da12 - - 478 0 30.3M 0
da13 - - 476 0 30.6M 0
mirror 97.9G 734G 765 0 32.4M 0
da14 - - 497 0 32.6M 0
da15 - - 504 0 33.8M 0
mirror 97.9G 734G 764 0 32.0M 0
da16 - - 481 0 32.4M 0
da17 - - 500 0 32.8M 0
mirror 97.8G 734G 703 0 28.3M 0
da18 - - 416 0 28.9M 0
da19 - - 443 0 30.4M 0
mirror 97.8G 734G 688 0 26.6M 0
da20 - - 405 0 26.8M 0
da21 - - 398 0 26.8M 0
logs - - - - - -
mirror 36.0M 186G 0 34 0 207K
da2 - - 0 34 0 207K
da3 - - 0 34 0 207K
---------- ----- ----- ----- ----- ----- -----
Рекомендую посмотреть например это:
https://events.yandex.ru/lib/talks/2694/
https://events.yandex.ru/lib/talks/2680/
и
https://events.yandex.ru/lib/talks/2677/
И
делать выводы о производительности ZFS самостоятельно.
On 12.05.2015 11:35, Vasiliy P. Melnik wrote:
давайте и своих пять копеек добавлю:
и на фре, и на солярисе скорости нет. Использую для
raid1, на ненагруженных серверах. Даже на очень
небольшом хостинге просто умирает.
Хорошо использовать для рейда и стореджа на офисных
серверах небольших, быстро загружается после резета,
позволяет хранить достаточно много снапшотов данных и
очень просто пользоваться этим. Все.
На солярисе пробовал поднимать оракл - установка оракла
датабейз заняла пол дня. Забил, снес солярис, поставил
линукс на md-raid
Надежность хорошая, скорости нет: как-то так.
12 мая 2015 г., 11:28 пользователь Stanislav Vlasov <stanislav.v.v@gmail.com>
написал:
12 мая 2015 г., 13:22 пользователь Фахретдинов Руслан
<ruanfak@gmail.com>
написал:
> 1) Да на счет использования памяти есть такое, у
самого стоит 16Гб,
> массив raidz1 ака раид5 с 4 винтами по 2Тб, вижу
жрет и не мало, но
> дедупликацию не использую. Но об этом и в
руководстве написано, но
> есть и свои +, которых я думаю больше.
Из того, что было возможно - использовал только снапшоты
на сервере бекапов.
При бекапах через rsync --inplace место использовалось
эффективнее,
чем в случае rsnapshot с его хардлинками.
История изменений стала не полмесяца, а полтора.
> 2) Надо озадачиться на сброс всего массива,
проверить, вот только где
> бы еще емкости найти.
Угу. На рабочие сервера поставить побоялся - там
нагрузки больше, чем
на бекапах, где zfs таки успешно подвешивала систему
(возможно
исправили, конечно, но осадок остался).
--
Stanislav |
Разница
в том что вы используете зеркало, тоже подумывал перейти на
зеркало, скорость по тестам в разы лучше
--
С уважением,
Фахретдинов mailto:ruanfak@gmail.com
-- To UNSUBSCRIBE, email to
debian-russian-REQUEST@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact
listmaster@lists.debian.org
Archive:
[🔎] 19510600431.20150512150721@gmail.com">https://lists.debian.org/[🔎] 19510600431.20150512150721@gmail.com
|