Форум истории автоспорта > Исследовательская лаборатория
Инструменты. Автоматические скачиватели
Владимир:
Не эксперт, но думаю, что если Вы удалите файлы с жесткого диска, а затем запустите "качалку", то она будет заново проверять наличие файлов в заданной папке, и в случае их отсутствия, будет опять заново их закачивать.
По крайней мере мне известно точно, что даже если у Вас часть сайта уже скачена, то все равно при новом запуске программы-"качалки", она будет проверять весь список заново на наличие файлов. Это, пожалуй самый большой минус таких программ, т.к. на на эту проверку тратится много времени, даже если у Вас скоростной канал (а такие пока не у многих имеются).
Хотя сейчас, может быть, существуют программы, в настройках которых можно задать параметры "Не проверять на обновление страниц" и что-то типа "Начинать закачку с последнего сохраненного файла", но такие мне неизвестны.
Поэтому при "закачке" сайтов, по необходимости, я стараюсь делать так, чтобы он скачивался за один раз. Но для больших сайтов это нереально, по-видимому.
gp238845,7867476852
Александр Готвянский:
Поделюсь опытом (хе-хе).
При закачке с Motorsport.com я давал задание FlashGet качать по заданому диапазону имен. Через 50 закачанных фото их админы сканировали мои порты и перекрывали доступ. Вот гады
Владимир Коваленко:
Это мы уже знаем, только качать пробовали новости.
Andy:
Вот еще новая программка, сам я еще не пробовал
Website Extractor v9.50 Retail Как переписать на диск целый вебсайт или один из его разделов? Наверное, каждый когда-нибудь сталкивался с подобной проблемой. Это можно сделать с помощью Internet Explorer, переписывая по одной страничке. А если вебсайт содержит, например, 1000 страниц - вам придется 1000 раз кликнуть мышкой, выбрав 1000 раз директорию для сохранения файла.Русский язык в инсталяторе.
Есть другой способ - применение новой версии программы Web Site Extractor. В этой программе достаточно просто ввести адрес вебсайта, и дальше вы можете не беспокоиться об его загрузке. Через некоторое время программа перепишет содержимое всего вебсайта или той его части, которая вам необходима. Программа Web Site Extractor создана для высокоскоростной загрузки веб-сайтов Интернета в соответствии с заданными вами условиями и ограничениями. Например, вы можете установить фильтры на названия директорий, имена доменов и файлов, типы загружаемых файлов и их размеры, другие свойства.
Программа может скачивать одновременно до 100 файлов, что существенно ускоряет загрузку информации по сравнению с обычными браузерами. Результат поиска сохраняется в указанную вами директорию и содержит только те файлы и директории, которые соответствуют параметрам наложенного фильтра.
Web Site Extractor позволяет повторно, автоматически скачивать те файлы, которые были изменены или не были переписаны в результате ошибок передачи и разрыва соединений.
Вы также можете импортировать/'экспортировать списки адресов вебстраниц (URL) из текстовых и html файлов.
Программа (648 кб)
Владимир Коваленко:
Можно попробовать. Я сейчас получил уже небольшой опыт, так что могу сравнивать. Спасибо за информацию.
Навигация
Перейти к полной версии