Відповіді:
Ви можете використовувати wget і запустити таку команду:
wget --recursive --level=1 --no-directories --no-host-directories --accept pdf http://example.com
Або з короткими варіантами:
wget -r -l 1 -nd -nH -A pdf http://example.com
ОНОВЛЕННЯ: Оскільки оновлення говорить про те, що ви працюєте з Windows 7: використовуйте wget для Windows з cmd
підказки.
ОНОВЛЕННЯ 2: Для графічного рішення - хоча це може бути надмірним, оскільки воно також отримує й інші файли - DownThemAll
-w 5
У веб-переглядачі натисніть CTRL+ SHIFT+ Jі введіть
var pdflinks = []; Array.prototype.map. виклик (document.querySelectorAll ("a [href $ = \". pdf \ "]"), функція (e, i) {if ((pdflinks || []). indexOf (e.href) == - 1) {pdflinks.push (e.href);}}); console.log (pdflinks.join (""));
Це повернеться в консолі:
" /superuser/tagged/somepdf1.pdf " " /superuser/tagged/somepdf2.pdf " " /superuser/tagged/somepdf3.pdf "
Тепер використовуємо wget
параметри командного рядкаwget url1 url2 ...
Скопіюйте та вставте це, відкрийте консоль, wget
натисніть праву кнопку миші, щоб вставити вміст буфера обміну, і натисніть клавішу Enter.
Щоб використовувати файл завантаження, з'єднайте рядки з "\ n" та використовуйте параметр наступним чином wget -i mydownload.txt
Зауважте, що більшість інших програм (GUI) для завантаження теж приймають, щоб викликати їх із розділеним пробілом списком URL-адрес.
Сподіваюся, це допомагає. Ось як я це взагалі роблю. Це швидше і гнучкіше, ніж будь-яке розширення з графічним інтерфейсом, мені доводиться вчитися і залишатися знайомим.
console.log('"' + pdflinks.join('" "') + '"')
- інакше ви фактично не отримаєте цитовані URL-адреси
Якщо ви хочете залишитися в браузері, я написав веб-розширення саме для цієї мети - я працюю над тим, щоб додати можливість зберігати PDF-файли наукових статей із правильно відформатованими заголовками, але якщо ви просто хочете завантажити їх, все це ідеально для цього.
Це називається Tab Зберегти та Інтернет - магазин Chrome тут . Вам навіть не потрібно вводити список URL-адрес, якщо ви просто відкриєте їх на вкладках (але для великої кількості файлів це може уповільнити роботу комп'ютера, тому я додав можливість додати свій власний).
Нещодавно я використовував для цього uGet (в Windows). Він має графічний інтерфейс, і ви можете фільтрувати файли, які ви хочете завантажити.
Економить, намагаючись запам'ятати все це
У Google Chrome можна використовувати розширення, такі як:
За допомогою цього розширення ви можете завантажити всі зображення, відео, pdf, документи та будь-який інший файл, пов’язаний на веб-сторінці, яку ви відвідуєте.
Є кілька інструментів Python, що дозволяє завантажувати PDF-посилання з веб-сайту на основі результатів пошуку Google.
Напр
google_dl
сценарій (рекомендовано).
Використання:
./google_dl -s http://www.example.com/ -f pdf ""
gsrchDwn
сценарій (заснований на сценарії нео ).
Використання:
./gsrchDwn.py --query "site:http://www.example.com/" --ftype pdf
Примітка. Я підтримую обох згаданих сценаріїв.
Вони обидва впроваджують xgoogle
бібліотеку Python. Моя вилка цієї бібліотеки заснована на pkrumins/xgoogle
версії .
Пов'язане: пошук в Інтернеті з командного рядка Linux .