Я хотів би завантажити локальну копію веб-сторінки та отримати всі css, зображення, javascript тощо.
У попередніх дискусіях (наприклад, тут і тут , обом яких більше двох років) загалом висуваються дві пропозиції: wget -p
та httrack . Однак обидві ці пропозиції провалюються. Я дуже вдячний за допомогу у використанні будь-якого з цих інструментів для виконання завдання; альтернативи також прекрасні.
Варіант 1: wget -p
wget -p
успішно завантажує всі необхідні умови веб-сторінки (css, images, js). Однак, коли я завантажую локальну копію у веб-браузері, сторінка не може завантажити передумови, оскільки шляхи до цих передумов не змінені з версії в Інтернеті.
Наприклад:
- У html-сторінці сторінки
<link rel="stylesheet href="https://stackoverflow.com/stylesheets/foo.css" />
потрібно буде виправити, щоб вказати на новий відносний шляхfoo.css
- У файлі css
background-image: url(/images/bar.png)
аналогічно потрібно буде відрегулювати.
Чи є спосіб змінити wget -p
так, щоб шляхи були правильними?
Варіант 2: httrack
httrack
видається чудовим інструментом для дзеркального відображення цілих веб-сайтів, але мені незрозуміло, як використовувати його для створення локальної копії однієї сторінки. На форумах httrack існує велика кількість дискусій щодо цієї теми (наприклад, тут ), але, схоже, ніхто не має куленебезпечного рішення.
Варіант 3: ще один інструмент?
Деякі люди пропонували платні інструменти, але я просто не можу повірити, що там немає безкоштовного рішення.
wget --random-wait -r -p -e robots=off -U mozilla http://www.example.com
wget -E -H -k -K -p http://example.com
- тільки це працювало для мене. Кредит: superuser.com/a/136335/94039