У мене є веб-сайт, і я хочу завантажити всі сторінки / посилання на цьому веб-сайті. Я хочу зробити це wget -r
за цією URL-адресою. Жодне з посилань не перебуває «поза» цього конкретного каталогу, тому я не переживаю за завантаження всього інтернету.
Як виявляється, потрібні мені сторінки перебувають за захищеним паролем розділом веб-сайту. Хоча я міг би використовувати wget, щоб вручну проводити це узгодження файлів cookie, мені було б набагато простіше просто "увійти" в браузер і використовувати плагін Firefox для рекурсивного завантаження всього.
Чи є розширення чи щось, що дозволить мені це зробити? Багато розширень орієнтуються на отримання медіа / зображень зі сторінки (хех. Хех.), Але мене цікавить весь вміст - HTML та все.
Пропозиції?
Спасибі!
Редагувати
DownThemAll здається чудовою пропозицією. Чи може це зробити рекурсивне завантаження? Як, наприклад, завантажуйте всі посилання на сторінку, а потім завантажуйте всі посилання, що містяться на кожній із цих сторінок тощо? Так що я в основному дзеркало всього дерева каталогів, переходячи за посиланнями? Якийсь -r
варіант подобається wget
?