[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: Pobieranie wielowątkowe.Dzielenie na 20-50 części



On Thu, Dec 29, 2005 at 07:34:14PM +0100, Paweł Tęcza wrote:

>Dlaczego wtedy transfer mialby byc bardzo efektywny? Przeciez lacze,
>przez ktore sciagasz plik nie jest z gumy, ale to cos w rodzaju "rury"
>o ograniczonej powierzchni przekroju. Jesli wiec przez ta rure mozesz
>w danej chwili maksymalnie przeslac okreslona liczbe bajtow, to co za
>roznica, czy robisz to za pomoca jednego, czy wielu polaczen?

Pod warunkiem, że rura nie składa się z kilku(nastu) mniejszych
kanalików :)

A różne mogą być tego przyczyny.
Load-balancing per flow -- to pierwsze, co przychodzi na myśl.
Limity przepustowości dla sesji na serwerach (lub w sieci -- założę
się, że i takie coś się znajdzie).
I pewnie jeszcze wiele innych potencjalnych przyczyn da się znaleźć.


A za czasów generalnie mniej obciążonego (ale i generalnie
wolniejszego) internetu pamiętam namiastkę p2p realizowaną przez
GetRighta -- różne częsci pliku pobierane z oddzielnych mirrorów.
Z pojedynczego hosta często nie dawało się osiągnąć sensownej
prędkości (nawet na modemie), dopiero agregacja transmisji z kilku
źródeł dawała sensowne wyniki (oczywiście zbyt dużo źródeł też nie ma
sensu, bo narzut na ich obsługę dochodzi w końcu do znaczącej
wielkości).

A szczerze powiedziawszy aktualnie, w dobie ,,szybkiego'' internetu,
wracają nieco stare wspomnienia. Zdecydowanie nie wszyscy są w stanie
podać dane z odpowiednią prędkością, w zasadzie chwilami mam wrażenie,
że głównie wielcy pokroju TASKu, ICMu, dużych portali i innych dużych
ISP są w stanie wysycić pełne 4mbit pojedynczą transmisją.

-- 
Jacek Politowski



Reply to: