Відповіді:
Ви можете використовувати wget
команду для завантаження сторінки та читання її у змінній як:
content=$(wget google.com -q -O -)
echo $content
Ми використовуємо -O
параметр, wget
який дозволяє нам вказати ім'я файлу, в який wget
скидається вміст сторінки. Ми визначаємо, -
щоб отримати дамп на стандартний вихід і збирати його в змінну content
. Ви можете додати -q
тиху опцію для вимкнення виводу wget.
Ви можете використовувати команду curl для цього також:
content=$(curl -L google.com)
echo $content
Нам потрібно використовувати цю -L
опцію, оскільки сторінка, яку ми просимо, може бути перенесена. У такому випадку нам потрібно отримати сторінку з нового місця розташування. У цьому нам допомагає варіант -L
або --location
варіант.
src
атрибут правильного елемента, а потім завантажити цю сторінку. Якщо ви встановите tq , слід виконати цю команду:curl -s http://ww1.watchop.io/manga2/read/one-piece/1/4 | tq -j -a src "#imgholder a img" | xargs wget
convert_links = on
з -O-
опцією. Він не вдається з помилкою -k can be used together with -O only if outputting to a regular file.
. Чи очікується?
Існує багато способів отримати сторінку з командного рядка ... але це також залежить від того, чи потрібно джерело коду чи саму сторінку:
Якщо вам потрібно джерело коду:
з завитком:
curl $url
з wget:
wget -O - $url
але якщо ви хочете отримати те, що ви можете бачити за допомогою браузера, рись може бути корисною:
lynx -dump $url
Я думаю, що ви можете знайти стільки рішень для цієї маленької проблеми, можливо, вам слід прочитати всі сторінки чоловіка для цих команд. І не забудьте замінити $url
своєю URL-адресою :)
Удачі :)
Є wget
команда або curl
.
Тепер ви можете використовувати файл, який ви завантажили за допомогою wget. Або ви можете обробити струмок завитком.
Ресурси:
content=`wget -O - $url`
Якщо у вас встановлений LWP , він надає двійковий файл, який просто називається " GET ".
$ GET http://example.com <! DOCTYPE HTML PUBLIC "- // W3C // DTD HTML 4.01 Перехідний // EN"> <HTML> <HEAD> <META http-equiv = "Тип вмісту" content = "text / html; charset = utf-8"> <TITLE> Приклад веб-сторінки </TITLE> </HEAD> <body> <p> Ви дійшли до цієї веб-сторінки, ввівши & quot; example.com & quot ;, & quot; example.net & quot;, & quot; example.org & quot або "example.edu" у ваш веб-браузер. </p> <p> Ці доменні імена зарезервовані для використання в документації та недоступні для реєстрації. Див. <a href="http://www.rfc-editor.org/rfc/rfc2606.txt"> RFC 2606 </a>, розділ 3. </p> </BODY> </HTML>
wget -O-
, curl
і lynx -source
поводитись аналогічно.
Ви можете використовувати curl
або wget
для отримання необроблених даних, або w3m -dump
для гарного подання тексту веб-сторінки.
$ foo=$(w3m -dump http://www.example.com/); echo $foo
You have reached this web page by typing "example.com", "example.net","example.org" or "example.edu" into your web browser. These domain names are reserved for use in documentation and are not available for registration. See RFC 2606, Section 3.