Запитання з тегом «wget»

GNU Wget - це безкоштовний програмний пакет для отримання файлів за допомогою HTTP, HTTPS та FTP, найбільш широко використовуваних Інтернет-протоколів. Це неінтерактивний інструмент командного рядка, тому його легко можна викликати зі скриптів, завдань Cron, терміналів без підтримки X Window System (X11) тощо.

2
Інструмент командного рядка Linux для завантаження файлів через HTTP у вигляді багаточастинних / форм-даних?
Я бачу, що у wget є --post-fileваріант, але в manpage написано В даний час Wget не підтримує багаточастинні / форми даних для передачі даних POST; тільки додаток / x-www-form-urlencoded. Тільки один з --post-dataі --post-fileповинен бути вказаний. Чи існує подібний спосіб завантаження файлів у багаточастинні / форми-дані?
25 http  wget  upload 

1
Чому wget видає помилку при виконанні з sudo, але працює добре без?
Я спробував таку команду: $ wget -q --tries=10 --timeout=20 --spider http://google.com (З цієї публікації SO . Я хочу перевірити підключення до Інтернету в bash.) Я отримую наступний вихід: Spider mode enabled. Check if remote file exists. --2015-09-28 09:55:50-- http://google.com/ Connecting to 127.0.0.1:3128... connected. Proxy request sent, awaiting response... 302 Found …
21 bash  sudo  wget 

3
Завантажте всі папки, підпапки та файли за допомогою Wget
Я використовую Wget, і я зіткнувся з проблемою. У мене є сайт, який містить кілька папок і підпапок в межах сайту. Мені потрібно завантажити весь вміст у кожну папку та підпапку. Я спробував кілька методів за допомогою Wget, і коли я перевіряю його завершення, все, що я бачу у папках, …
21 wget 

4
Як встановити Wget для Windows?
Я завантажив Wget звідси і отримав файл, названий wget-latest.tar.gz22 вересня 2009 року. Я зберег її в одній із папок на своєму D:диску і розпакував. Я прочитав READ MEфайл, але там не знайшов ніякої інформації, як його встановити. Оскільки Installфайлу не було , я припустив, що розпакувавши wget.zipйого в раніше створену …

2
Постійні спроби відновлення завантажень із завитком
Я на Mac і маю список файлів, які я хотів би завантажити з ftp-сервера. З'єднання трохи помийне, тому я хочу, щоб він повторився та відновився, якщо з'єднання перестане. Я знаю, що можу це зробити за допомогою wget, але, на жаль, Mac OS X не постачається з wget. Я міг би …
17 mac  unix  download  wget  curl 


3
Уникнення рядків запиту з wget --mirror
Я використовую wget --mirror --html-extension --convert-linksдля дзеркального відображення сайту, але я закінчую безліччю імен файлів у форматі post.php?id=#.html. Коли я намагаюся переглянути їх у браузері, це не вдається, оскільки браузер ігнорує рядок запиту під час завантаження файлу. Чи є спосіб замінити ?персонажа у назви файлів чимось іншим? Відповідь --restrict-file-names=windowsспрацював правильно. …
15 linux  wget  mirroring 

3
Рекурсивне завантаження (`wget -r`) еквівалент для Firefox?
У мене є веб-сайт, і я хочу завантажити всі сторінки / посилання на цьому веб-сайті. Я хочу зробити це wget -rза цією URL-адресою. Жодне з посилань не перебуває «поза» цього конкретного каталогу, тому я не переживаю за завантаження всього інтернету. Як виявляється, потрібні мені сторінки перебувають за захищеним паролем розділом …

3
Як використовувати файли cookie Firefox з Wget?
wget --load-cookiesзавантажить файли cookie як "текстовий файл у форматі, який спочатку використовувався файлом cookies.txt Netscape". Однак Firefox зберігає файли cookie в базі даних SQLite . Чи є спосіб витягнути файл файлу cookies.txt Netscape з файлу Firefox cookies.sqlite?
15 firefox  wget  cookies 

3
wget для ftp за допомогою пароля, що містить @
Я намагаюся отримати деякі файли з мого ftp-сервера з командного рядка. Я використовую wget, щоб завантажити всю папку відразу. Команда така: wget -m ftp://username:password@ftp.hostname.com:/path/to/folder Але проблема в тому, що мій пароль містить символ "@". Звідси команда стає wget -m ftp://username:foo@bar@ftp.hostname.com:/.. завдяки чому wget намагається повторно вказати bar@ftp.hostname.com як хост, чого …
15 ftp  wget 

1
Як я можу віддалено отримувати файли з перенаправлених URL-адрес з терміналу?
Я хочу отримати тарбол цієї бібліотеки пітонів з терміналу. https://github.com/simplegeo/python-oauth2/downloads Однак я не можу просто зателефонувати wget https://github.com/simplegeo/python-oauth2/tarball/master тому що це отримує веб-сторінку. Як отримати цей ресурс з терміналу?

2
як я можу використовувати wget для завантаження великих файлів?
Я використовую Linux Mint 15 Cinnamon, що працює від 8 Гб магістралі. Я хочу отримати ISO для 'Linux Mint 14 «Nadia» KDE ». Я намагався використовувати wgetв терміналі. Ось саме те, що я набрав: wget http://mirror.ufs.ac.za/linuxmint/stable/14/linuxmint-14-kde-dvd-64bit.iso після завантаження до 30% (приблизно через 2 години) я був розчарований, побачивши, що він …
14 linux  linux-mint  wget 

2
Як сканувати за допомогою wget для завантаження ТІЛЬКИ HTML-файлів (ігноруйте зображення, css, js)
По суті, я хочу сканувати весь сайт за допомогою Wget, але мені це потрібно, щоб НІКОЛИ не завантажувати інші ресурси (наприклад, зображення, CSS, JS тощо). Я хочу лише HTML-файли. Пошуки Google абсолютно марні. Ось команда, яку я спробував: wget --limit-rate=200k --no-clobber --convert-links --random-wait -r -E -e robots=off -U "Mozilla/5.0 (X11; …
14 wget  web-crawler 

4
wget -o записує порожні файли при відмові
Якщо я напишу wget "немає такої адреси" -o "test.html", він спочатку створює test.html, а в разі відмови залишає порожнім. Однак, якщо не використовується -o, він буде чекати, коли завантаження вдалося, і лише після цього він напише файл. Я хотів би, щоб остання поведінка застосовувалася і до -o, чи це можливо?
13 wget 

4
Використовуючи Wget для рекурсивного сканування сайту та завантаження зображень
Як ви інструктуєте wget рекурсивно сканувати веб-сайт і завантажувати лише певні типи зображень? Я намагався використовувати це для сканування сайту та завантажувати лише зображення Jpeg: wget --no-parent --wait=10 --limit-rate=100K --recursive --accept=jpg,jpeg --no-directories http://somedomain/images/page1.html Однак, незважаючи на те, що page1.html містить сотні посилань на підсторінки, які самі по собі мають прямі …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.