Зокрема, я хотів би мати можливість завантажувати певні сторінки зі свого профілю користувача на різні сайти Stack Exchange. Однак я хотів би зробити це автоматично (використовуючи cron
завдання), з командного рядка та в прохідному форматі. Я дуже вважаю за краще використовувати для цього Linux, але я можу отримати доступ до машини Mac чи Windows, якщо це необхідно.
В ідеалі я хотів би використати такий інструмент, як Wget або CURL для отримання сторінок. Я не знаю, як обійти журнал. Я бачив пропозиції, в яких згадується, що ви можете увійти через Firefox, експортувати відповідне cookie та імпортувати його в Wget через його --load-cookies
параметр. Наприклад тут і тут . Хоча це працює, якщо я щойно увійшов, він через деякий час не працює. Я думаю, тому що маркер ID повинен бути оновлений.
Отже, лише після входу в SU та експорту файлів cookie я можу:
wget --load-cookies cookies.txt \
https://superuser.com/users/151431/terdon?tab=responses
Через кілька хвилин я отримую помилку 404:
wget -O ~/stack/$(date +%s) --load-cookies ~/cookies.txt \
https://superuser.com/users/151431/terdon?tab=responses
--2013-08-06 04:04:14-- https://superuser.com/users/151431/terdon?tab=responses
Resolving superuser.com (superuser.com)... 198.252.206.16
Connecting to superuser.com (superuser.com)|198.252.206.16|:80... connected.
HTTP request sent, awaiting response... 404 Not Found
2013-08-06 04:04:15 ERROR 404: Not Found.
Отже, як я можу автоматично увійти на веб-сайт із підтримкою OpenID з командного рядка?
PS. Я думаю, що це краще підходить тут, ніж для веб-додатків, оскільки моє запитання стосується аспекту командного рядка, а не фактичних деталей веб-сторінки, про яку йдеться. Я б припустив, що будь-яке рішення буде застосовне до всіх OpenID- сайтів.