Достать файл больше 2 гиг
Доброго времени суток, all
На днях сделал маленький бэкапчик гига на 2.5.
Переложил его с одного сервера на другой с помощью shell link mc
(ногами просьба не пинать - но всё прошло замечательно) и теперь
пытаюсь утащить к себе по медленному каналу дабы сложить на dvd.
У mc (а может не у него) похоже есть проблема (и даже не одна:) с
соединениями, которые живут больше суток - он их просто рвет.
Хотя когда пробовал sftp mount (точно не помню название) - он тоже
отваливался где-то через сутки.
На медленном канале файл не успевает дойти полностью.
Закачка рвется на 2048Mb (циферь сама по себе тоже настораживает).
Докачки в mc естествено нет.
Попробовал забрать его wget -c ftp://bla-bla-bla
На что получил следующее:
wget -c ftp://user:password@server/dir/file.tar.gz
--11:10:50-- ftp://user:*password*@server/dir/file.tar.gz
=> `file.tar.gz'
Connecting to server:21... connected.
Logging in as user ... Logged in!
==> SYST ... done. ==> PWD ... done.
==> TYPE I ... done. ==> CWD /dir ... done.
==> SIZE file.tar.gz ... done.
==> PASV ... done. ==> REST 2147483647 ... done.
==> RETR file.tar.gz ... done.
Length: 548,402,407 [-1,599,081,240 to go] (unauthoritative)
100%[++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++]
2,147,483,647 --.--K/s wget: progress.c:704:
create_image: Assertion `insz <= dlsz' failed.
Aborted
Из идей пока только порвать split'ом на сервере файл на куски,
докачать отдельно недостающий кусок и собрать вместе.
Может кто знает более другой более правильный путь - большие файлы
попадаются всё чаще и плясать с бубном вокруг каждого - это не есть
правильно.
PS: Везде Debian Sarge +/- версия ядра
--
WBR, Dmitrii
+375 29 40-LINUX
Reply to: