[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: OpenVZ



Alexey Pechnikov -> debian-russian@lists.debian.org  @ Sat, 13 Feb 2010 19:13:36 +0300:

 >>  AP> Еще бы они написали, что комп нужно в розетку включать.  Раз в
 >>  AP> контейнере свой сетевой интерфейс, надо его буферы настраивать,
 >>  AP> бэклог - где это все искать?
 >> 
 >> Буферы и бэклог обычно настраивают у сокета, а не у интерфейса, не?

 AP> Имеются в виду дефолтовые настройки вида
 AP> net.core.somaxconn = 1024
 AP> net.core.netdev_max_backlog = 4000
 AP> net.ipv4.tcp_max_syn_backlog = 4096

 AP> В каком месте делать _свои_ настройки для сетевого интерфейса 
 AP> контейнера? На первый взгляд, там не нужен большой бэклог, можно 
 AP> оставить по дефолту для линукса, зато стоит существенно увеличить
 AP> буферы, чтобы оптимизировать обмен данными с хостом.

Судя по именам, это параметры не per interface, а единые на все ядро.
Откуда, собственно, следует, что несчастный контейнер тут совершенно не
при делах.  Он, впрочем, и так не при делах - на все контейнеры у
хоста-носителя один интерфейс.

 >>  AP> На "железном" сервере до черта времени нужно, чтобы разобраться,
 >>  AP> т.к. вменяемой документации нет (только и есть что список
 >>  AP> параметров) и в разных ядрах бывают отличия (с 2.4 на 2.6 пришлось
 >>  AP> все заново настраивать). Поди и настройки tcp_keepalive придется
 >>  AP> контейнеру подкручивать...
 >> 
 >> Поскольку ядро у них с хостом общее, то и настройки tcp_keepalive,
 >> вероятно, следует подкручивать хосту...
 >> 
 >> А там, где имеет смысл что-то ядерное отдельно крутить в контейнере,
 >> логика простая: раз ядро то же, то и настройки те же.

 AP> Подозреваю, чтобы эффективно гонять данные между хостом и
 AP> контейнером, придется много чего подкрутить, посколько такой
 AP> сценарий сильно отличается от обмена данными с удаленными клиентами
 AP> через интернет.

Ну, настрой так же, как ты lo на железном хосте настраиваешь, чтобы
данные между ним и ним гонять :-)

-- 
Не сломалось - не чини.


Reply to: