[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: utilisation de nis et nfs pour un réseau de 32 postes



On 24 Feb 2024 23:23, BERTRAND Joël wrote:
	Un gros serveur sous NetBSD et toutes les stations sont diskless et
bootent sur le réseau. Les disques sont en NFS et les swaps en iSCSI.

Peux-tu expliquer ce choix (NFS vs iSCSI) stp ?
Si je dis pas de conneries, tu pourrais boot root (/) en iSCSI.
Note que je suis autant interessé par ton raisonnement (ton choix pratique) que par le débat NFS vs iSCSI (la théorie) ! (Y'a pas de solutions toutes faites, le forum de FreeNAS est un bon exemple).

La qualité du
switch est primordiale. Passer d'un TPLink à un Cisco m'a changé la vie.

Entièrement d'accord avec toi.
J'en profite pour un coup de gueule, c'est le problème avec le matos "grand public". Un switch 1Gb/s "grand public" veut dire que tu auras ce débit entre DEUX stations ! (Comprendre entre 2 ports physiques). Un "vrai" switch 1Gb/s 10 ports devrait tenir au moins 5Gb/s (sans uplink) : deux stations à 1Gpbs, fois 5. J'ai découvert ce problème par la pratique, chercher "switch backplane" sur le net. Même certains switch soit-disant d'entreprise (SOHO) sont incapables de tels débits.
(Mais YMMV comme disent les ricains).

	Le goulot d'étranglement n'est pas le réseau, mais le système de
fichier sur les disques exportés. J'ai fait la bêtise d'utiliser FFSv2
sur lequel il n'est pas possible de mettre un cache. Lorsque j'aurai le
temps, je remplacerai cela par un ZFS+cache.

AFAIK, le problème de tous réseaux c'est la latence, pas le débit.
(Toutes proportions gardées).
Donc améliorer les accès disque(s) n'améliorent pas forcément la "réactivité".
Peux-tu éclairer ma lanterne stp ?

PS: j'ai travaillé dans la VoIP, où j'ai -finalement- compris que latence et débit n'ont rien à voir. Sans même parler de jitter (la variation de latence en bon céfran).

--
++
zithro / Cyril


Reply to: