[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: Хранилище данных отдельно, приложения отдельно.



Vladimir Skubriev -> Debian-russian  @ Thu, 19 Jun 2014 12:16:05 +0400:

 VS> 1. База данных mysql ticket tracker'а
 VS> 2. Репозитории git, hg, доступ к которым нужен с тикет трекера (~ объем примерно 4Гб).
 VS> 3. Данные (файлы и папки ) папки обмена файлами доступной по протоколым NFS, SMB, FTP
 VS> 4. Мелкие данные такие как сертификаты https, ключи для расшифровки, ldif файлы с содержанием ldap каталога, конфиги различных служб (DNS, DHCP) и местных скриптов и
 VS> так далее.
 VS>  
 VS> Соответсвенно есть службы, которые пользуются этими данными на другом сервере:
 VS> 1. Например redmine, который разворачивается и работает в контейнере, которому нужен доступ к базе данных mysql.
 VS> 2. Например репозитории нужны веб серверу работающему в контейнере redmine для расшаривания доступа к ним через HTTPS
 VS> 3. SMB, NFS, ftp - которые я скорее всего подыму на сервере данных, т.к. объемы большие и разностить службы от этих данных по гигабитной сети не совсем правильно.
 VS> 4. Остальные разношерстные данные нужны различным виртуальным машинам (контейнерам) по объему этих данных не много (гигабитной сети  за глаза).
 VS>  
 VS> Возникает вопрос как эти данные предоставлять в доступ виртуальным контейнерам, работающим на другом сервере ?
 VS>  
 VS> Какими протоколыми это реализовать?
 VS>  
 VS> Что посоветуете использовать ? NFS, iSCSI, glusterfs, etc ?

Не могу сказать, что у меня есть богатый опыт, но.  Пп. 2 и 4 я бы делал
через NFS, а в случае контейнера на том же физическом сервере - через
mount --bind.  В пп. 1 и 3 протоколы уже указаны.

NFS - штука простая, странного не хочет, скорость у нее вменяемая, а
экстремально высокой скорости или горячего резервирования в запросе не
стоит.


Reply to: