Хороший інструмент для сканування мого сайту та допоможе мені знайти мертве посилання та від’єднані файли [закрито]


21

У мене досить великий спадковий сайт з буквально тисячами PDF-файлів, які іноді обліковуються в базі даних, але часто це лише посилання на сторінку і зберігаються в більшості всіх каталогів на сайті.

Я написав сканер php, щоб переходити за всіма посиланнями на своєму сайті, а потім я порівнюю це з дампами структури каталогів, але чи є щось простіше?


Дивіться також webmasters.stackexchange.com/questions/13310/…, який запитує і про перевірку орфографії.
Джеймс Скемп

Відповіді:


15

Я використав Xenu's Link Sleuth . Це працює досить добре, просто не забудьте самостійно DOS!


1
Позначте опцію "Файли-сироти" в параметрах, і вона запропонує вам увійти на сайт на ftp.
pelms

Це обробляє сайти, на які ви також повинні увійти, щоб потрапити на сторінку?
Донні В.

@Jim Як я можу побачити, на якій сторінці перерване посилання?
Роб

Після завершення сканування з’являється звіт, який повідомить вам інформацію. Залежно від розміру сайту та кількості непрацюючих посилань, це може бути важко для розбору. Зазвичай я коригую параметри звітності перед скануванням і відкриваю звіт як текстовий файл (оскільки він є .htm) і видаляю речі, які не стосуються, щоб зробити його більш керованим. Сподіваюся, це допомагає.
plntxt

6

Якщо ви використовуєте Windows 7, найкращим інструментом є SEO Toolkit 1.0 IIS7. Це безкоштовно, і ви можете завантажити його безкоштовно.

Інструмент просканує будь-який сайт і підкаже, де знаходяться всі мертві посилання, які сторінки потрібно тривати для завантаження, які сторінки мають відсутні заголовки, дублюючі заголовки, однакові для ключових слів та описів та які сторінки зламали HTML.


1
Я використовував це особисто, і він відмінно підходить для сканування і, звичайно, SEO, але FTP перевірка в Xenu просто перешкоджає цьому.
MrChrister


1

Я великий шанувальник linklint для перевірки великих статичних сайтів, якщо у вас є командний рядок unix (я використовував на Linux, MacOS та FreeBSD). Інструкції з установки див. На їхньому сайті. Після встановлення я створюю файл, який називається check.llі робити:

linklint @check.ll

Ось як виглядає мій файл check.ll

# linklint
-doc .
-delay 0
-http
-htmlonly
-limit 4000
-net
-host www.example.com
-timeout 10

Це виконує сканування www.example.comта генерування HTML-файлів із перехресними звітами про те, що порушено, пропущено тощо.


1

Існує декілька продуктів від Microsys , особливо їх генератор Sitemap A1 та аналізатор веб-сайтів A1, який сканує ваш веб-сайт та повідомляє про все, що ви можете про нього уявити.

Це включає непрацюючі посилання, а також перегляд таблиці всіх ваших сторінок, щоб ви могли порівняти такі речі, як ідентичні <title> та мета-теги опису, посилання на наступні нижче, meta noindex на веб-сторінках та безліч захворювань, на які просто потрібно гострий погляд і швидка рука для виправлення.


Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.