Всё перечисленное реализуется на раз-два.
Но из коробки -- этого всего конечно же нет нигде.
> - Возможность отдать мне файл через веб. То есть есть страница, защищённая простым паролем. Туда можно залить файл
> веб-мордой, с ограничением по размеру файла и в идеале по количеству файлов с одного айпи, ну и с исключением
> возможности забить весь диск. Получить этот файл оттуда веб-мордой нельзя, только подтверждение что он закачался.
> Файлы забираю я по scp.
Простейший CGI скрипт, пишется на чём угодно и относительно быстро.
В варианте с CGI мне непонятно, как ограничивать размер файла, а в идеале хотелось бы ещё и вариант "лить сразу на S3". Всё это сводится, похоже, к одному вопросу.
В простых примерах, которые мне удаётся найти, вроде вот этого (удачно для меня на Питоне)
https://www.geeksforgeeks.org/handling-file-uploads-via-cgi/ , "upload file" это один HTTP запрос. Вот приходит форма и в ней "file". Но это ж не сработает для толстых файлов, тут надо как-то иметь обработку закачиваемого по кускам, и каждый очередной кусок мой скрипт должен куда-то класть (хоть в файл, хоть на s3, хоть вообще в стандартный ввод tar cxf). Вот и как её реализовывать в этом вашем CGI?
Если это получить, то дальше я и вправду обошёлся бы даже голым Питоном без фреймворка.
> - Личный аналог archive.is. То есть я захожу (тоже с паролем), указываю там URL, он архивируется, генерируется URL по
> которому можно посмотреть копию.
Тут зависит от того, хочешь ли ты хранить историю. Если нет, то
реализуемо в несколько строчек. Если да, придётся покорпеть.
В каком смысле "хранить историю"? Историю того, что я накачал? Так это ж одна строка с добавкой в лог?
Мне интереснее, чем качать. wget -p как-то не очень справляется. Я проверил на двух страницах и обе заметно хуже, чем
archive.is.
wget -p выдаёт то что до пейволла и вечное ожидание checking access.
Вот есть что-то такое что бы позволило у меня на VPS качать так, как
archive.is ? Если нет, то пока наверное обойдусь archive.is... пока его в РФ не закрыли. Потому как одна из двух основных целей своего архива" - давать конкретные страницы друзьям в РФ. (Я сам в Ирландии, причём почти 20 лет уже).
> - Не уверен что реально, но в идеале - своя выкачивалка видео, как минимум с ютуба и из твиттера, с генерацией URL по
> которому качается результат. Возиться с плеером наверное незачем, хотя если он есть готовый, то почему бы и нет.
> Автопуржинг через указанное количество дней, но это наверняка тривиально по сравнению с остальным.
Ну то есть ты хочешь youtube-dl в CGI-скрипт завернуть. Тоже палец-о-палец.
Ага, тут понятно. Без s3 для видосиков я пожалуй уже и обойдусь :)
Единственное что, по поводу вот этого:
> - Task management/personal project management. Нужны задачи, подзадачи, по нескольку разных цифр на задачу и по две даты
> (soft deadline/hard deadline).
Единственное, что имеет смысл гонять -- это Jira. Да, даже не смотря на
то, что проприетарь лютая, ибо ничего лучше пока не придумали.
Jira у меня есть на работе, поэтому я с ней знаком. Я бы сказал, что она очень сильно оптимизирована под именно групповые проекты. С личными хуже. Например, мне нужен не один пункт story points в задаче, а два - bandwidth (внимание) и effort (усилия/время). Наверное как-то её можно запинать под это ногами...
Тем не менее, попробуем. Поднял таки, благо у себя Atlassian даёт free tier. Фришного self hosted не нашёл, да и не такие у меня там секреты, чтобы бояться Atlassian.