[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Достать файл больше 2 гиг



Доброго времени суток, all

На днях сделал маленький бэкапчик гига на 2.5.

Переложил его с одного сервера на другой с помощью shell link mc
(ногами просьба не пинать - но всё прошло замечательно) и теперь
пытаюсь утащить к себе по медленному каналу дабы сложить на dvd.
У mc (а может не у него) похоже есть проблема (и даже не одна:) с
соединениями, которые живут больше суток - он их просто рвет.
Хотя когда пробовал sftp mount (точно не помню название) - он тоже
отваливался где-то через сутки.
На медленном канале файл не успевает дойти полностью.
Закачка рвется на 2048Mb (циферь сама по себе тоже настораживает).
Докачки в mc естествено нет.
Попробовал забрать его wget -c ftp://bla-bla-bla

На что получил следующее:

wget -c ftp://user:password@server/dir/file.tar.gz
--11:10:50--  ftp://user:*password*@server/dir/file.tar.gz
          => `file.tar.gz'
Connecting to server:21... connected.
Logging in as user ... Logged in!
==> SYST ... done.    ==> PWD ... done.
==> TYPE I ... done.  ==> CWD /dir ... done.
==> SIZE file.tar.gz ... done.
==> PASV ... done.    ==> REST 2147483647 ... done.
==> RETR file.tar.gz ... done.
Length: 548,402,407 [-1,599,081,240 to go] (unauthoritative)

100%[++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++]
2,147,483,647   --.--K/s             wget: progress.c:704:
create_image: Assertion `insz <= dlsz' failed.
Aborted

Из идей пока только порвать split'ом на сервере файл на куски,
докачать отдельно недостающий кусок и собрать вместе.
Может кто знает более другой более правильный путь - большие файлы
попадаются всё чаще и плясать с бубном вокруг каждого - это не есть
правильно.

PS: Везде Debian Sarge +/- версия ядра
--
WBR, Dmitrii
+375 29 40-LINUX

Reply to: