Запитання з тегом «wget»

GNU Wget - це безкоштовний програмний пакет для отримання файлів за допомогою HTTP, HTTPS та FTP, найбільш широко використовуваних Інтернет-протоколів. Це неінтерактивний інструмент командного рядка, тому його легко можна викликати зі скриптів, завдань Cron, терміналів без підтримки X Window System (X11) тощо.

1
WGET / cron, що завантажує файл веб-камери
наш новий міський лікар поставив веб-камеру до своєї приймальні, щоб люди побачили, наскільки це багатолюдно. Коли моя мама і бабуся з дідусем ідуть до цього лікаря, я хотів періодично завантажувати файли, і якщо вони там захоплені, я хотів надіслати їм фото. По-дитячому, я знаю, але мені просто потрібно годувати мої …

1
Завантажуючи веб-сайт за допомогою wget, важливіша швидкість завантаження?
Я намагаюся завантажити улюблений веб-сайт з великою кількістю фотографій, його розмір становить близько 10 гігабайт. Я правильно використовую сайти-завантажувач, щоб завантажити його, і я помітив, що хоча у мене швидкість завантаження в 10 Мбіт / с, для його завантаження знадобиться щось на зразок двох днів, і він все ще працює. …

1
CURL segfaults при підключенні веб-програми https, але wget може підключитися
Я налаштував сервер за допомогою Jetty та SSL. Я використовую самопідписаний серверний сертифікат для клієнта та сервера. Це все добре працює, коли я намагаюся вдарити його за допомогою wget. Моя проблема виникає, коли я намагаюся вдарити її за допомогою curl: $ curl -k --cert ./mycert-001.pem --key ./mykey-001.pem https://****:9994/rest/list --verbose * …
ssl  wget  curl 

1
Створіть один PDF-файл із HTML-сторінок веб-сайтів
Ось проблема: Є веб-сайт, який мені часто потрібен для довідок, і я хотів би офлайн-версію, яка також працює на мобільних пристроях. Я можу зробити офлайн-копію версії HTML за допомогою wget, це не проблема. Що мені дуже хотілося б - це спосіб перетворити всі HTML-сторінки в один PDF-файл із внутрішніми посиланнями, …
pdf  html  wget 

1
Як отримати джерело сторінки певної сторінки результатів пошуку Google?
Я хочу написати код для видачі імен персонажів із телевізійних серій чи фільмів за допомогою сценарію оболонки ... Я планую це зробити, використовуючи джерело сторінки результату пошуку в Google, для якого я вимагатиму сторінки джерело посилань ... наприклад, наприклад, це посилання я спробував безпосередньо за допомогою wget, але він дає …

1
Як завантажувати файли, починаючи лише з певного діапазону чисел?
Я намагаюся завантажити файли із нумерованого списку на веб-сайт. У списку розміщено 6179 позицій, але я хочу розпочати завантаження з пункту 4852. Я спробував команду: wget -m -np -c -A "*[4852-6179]*" "WEBSITE" Однак це починає завантаження з пункту 1 чомусь. Команда: wget -m -np -c -A "*485[2-9]*" "WEBSITE" Працює чудово, …

1
Вихід сценарію wget ненормально з помилкою 126
Здається, цей сценарій не запускається, у мене є доступ користувача до даних, які я намагаюся завантажити, але він просто не запуститься. Якщо хтось може допомогти зі скриптами wget, це буде вдячно. for i in $(seq 1 9); do wget -q --http-user="xxxxxx" --http-passwd="xxxxxx" http://cdaac-www.cosmic.ucar.edu/cdaac/rest/tarservice/data/cosmic2015/atmPrf/2015.00$i -O cosmic_atmPrf_2015.00$i.tar; done
linux  bash  wget 

1
Завантаження файлу з Інтернету за допомогою "&" в URL за допомогою wget
Я намагаюся завантажити файл із URL-адреси, яка виглядає приблизно так: http://pdf.example.com/filehandle.ashx?p1=ABC&p2=DEF.pdf У веб-переглядачі це посилання запропонує мені завантажити файл під назвою x.pdf незалежно від того, що таке DEF (але "x.pdf" - це правильний вміст). Однак, використовуючи wget, я отримую наступне: >wget.exe http://pdf.example.com/filehandle.ashx?p1=ABC&p2=DEF.pdf SYSTEM_WGETRC = c:/progra~1/wget/etc/wgetrc syswgetrc = C:\Program Files\GnuWin32/etc/wgetrc --2011-01-06 …
pdf  download  wget 

1
wget timeout - продовжує "пробувати"
Зараз я завантажую близько 100 файлів із налаштуваннями за замовчуванням на wget. Я застряг на одному пакеті (підозрюю, що пакет перемістився) і wget продовжує повторювати. Я подумав, що після 3-х спроб воно перейде до наступної URL-адреси, але це не так. Я пробую номер 7 і чекаю близько 20 хвилин. Якщо …

1
Сканувати веб-сайт для файлів
Привіт Я хотів би завантажити всі PDF-файли з http://www.allitebooks.com/ і хотів би використовувати wget. моя команда, "http://www.allitebooks.com/" -P "C:\dummydir" -c -A pdf -rале я вважаю, що наразі вона не може переходити за посиланнями на піддомен, як я можу її виправити, щоб вона завантажувала http://file.allitebooks.com/20170105/Internet%20of%20Things%20and%20Big%20Data%20Technologies Наприклад,% 20для% 20Наступний% 20Генерація% 20Здоров'я.pdf .
-1 pdf  wget  web-crawler 
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.