[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: Стратегия поддержания резервных копий. Деградация носителей.



On 06/07/17 03:18 PM, Sergey Matveev wrote:
> *** Tim Sattarov <stimur@gmail.com> [2017-07-06 21:21]:
>>> Если это RAIDZ1 -- то zpool status скажет что потенциально "массив" в
>>> опасности, вставьте диск чтобы на него произошёл resilvering и не было
>>> страшно. Если RAIDZ2/3, то 2-3 диска аналогично. Если что-то вылетает,
>>> то в системе, с точки зрения user-space, абсолютно ничего не происходит,
>>> всё прозрачно и никто кроме zpool не знает что что-то не так.
>> А как это соотносится с вот таким взглядом на "удобства" ZFS ?
>>
>> http://louwrentius.com/the-hidden-cost-of-using-zfs-for-your-home-nas.html
> А что тут про соотношение? Статья по ссылке расказывает про то, как
> увеличить место в pool-е, как добавлять жёсткие диски к нему. У меня
> написано про замену дисков в pool-е, когда они выходят из строя -- там
> можно добавлять какой угодно диск, лишь бы был не меньшего размера, а
> resilvering на него пройдёт.
я пытаюсь понять все за и против,
это может быть я выдаю желаемое за действительное, но моё понимание
было, что ZFS работает с JBOD на бэкенде и собирает массивы дисков, так
же как LVM.
сейчас я вижу требование о равных размерах томов и пересборке vdev.

Может было бы проще озвучить своё понимание и сценарий который у меня в
голове :)

делаю я ноду в AWS, скажем с четырьмя терабайтными дисками и страйпом.
вопрос номер раз: как делать страйп ? все диски в один VDEV ? или лучше
каждый диск в свой VDEV и потом его в страйп на уровне zpool ?

Вопрос номер два:
Хочу ускорить доступ к данным и пользоваться ephemeral SSD, напрямую
подсоединенному к хосту (супротив остальных дисков, которые HDD и вообще
говоря сетевые). В силу эфемерности SSD диска, каждая холодная
перезагрузка (power cycle) его обнуляет.
Где хранится информация, что /dev/xvdf надо использовать как кэш ?
на самом диске или вне его ?
насколько просто и быстро добавить обнулённый диск, нужна ли какая то
инициализация ?

Ну и вопрос намбер три:
Когда я решу увеличить размер пула, можно ли просто добавить весь набор
новых дисков ? То есть были 4 по терабайту, добавляю 4 по 2 ТБ и после
синхронизации удаляю старые 1ТБ.
Куда лучше добавлять, в существующий VDEV или создавать новый ? А если
каждый диск был отдельным VDEV ?

Вопросов много, пока что больше чем ответов. Буду благодарен, если
сможешь на них ответить.


>
> В статье сказано всё верно. В ваших руках компромисс между теряемым
> местом в пределах одного VDEV (сколько дисков вы хотите за "раз"
> объединить в один RAIDZ) и количеством VDEV-ов внутри одного pool. Вы
> можете сделать pool с 1 vdev-ом RAIDZ из 8 дисков, либо pool из 2-х
> vdev-ов, в каждом из которых по четыре диска. В первом случае, как в
> статье сказано, вам нужно будет заменить все 8 дисков, чтобы увеличить
> место, а во втором достаточно только половину, чтобы увеличить один из
> vdev-ов. Позже всегда можно будет заменить диски внутри и второго vdev-а.
>
> vdev это один "уровень" RAID, а объединение vdev-ов в pool это второй,
> striping. Это если в терминах классических RAID-ов. ZFS получается из
> коробки сразу же двухуровневый RAID.
>
Спасибо
Тимур


Reply to: