Я приземлився на цій сторінці, намагаючись зрозуміти розумний спосіб перевірити рядки як "дійсні" URL-адреси. Я ділюсь тут своїм рішенням за допомогою python3. Не потрібні додаткові бібліотеки.
Дивіться https://docs.python.org/2/library/urlparse.html, якщо ви використовуєте python2.
Дивіться https://docs.python.org/3.0/library/urllib.parse.html, якщо ви використовуєте python3 як я.
import urllib
from pprint import pprint
invalid_url = 'dkakasdkjdjakdjadjfalskdjfalk'
valid_url = 'https://stackoverflow.com'
tokens = [urllib.parse.urlparse(url) for url in (invalid_url, valid_url)]
for token in tokens:
pprint(token)
min_attributes = ('scheme', 'netloc') # add attrs to your liking
for token in tokens:
if not all([getattr(token, attr) for attr in min_attributes]):
error = "'{url}' string has no scheme or netloc.".format(url=token.geturl())
print(error)
else:
print("'{url}' is probably a valid url.".format(url=token.geturl()))
ParseResult (схема = '', netloc = '', path = 'dkakasdkjdjakdjadjfalskdjfalk', params = '', query = '', fragment = '')
ParseResult (схема = 'https', netloc = 'stackoverflow.com', path = '', params = '', query = '', fragment = '')
рядок 'dkakasdkjdjakdjadjfalskdjfalk' не має схеми або мережі.
" https://stackoverflow.com ", ймовірно, є дійсною URL-адресою.
Ось більш коротка функція:
from urllib.parse import urlparse
min_attributes = ('scheme', 'netloc')
def is_valid(url, qualifying=min_attributes):
tokens = urlparse(url)
return all([getattr(tokens, qualifying_attr)
for qualifying_attr in qualifying])