Блог про сео




Перевірка всіх вихідних посилань сайту безкоштовним краулером: інструкція

Запропонувати іншу тему
Прискорити індексацію беклінків в linkbox.pro

Інформація оновлена 2 грудня 2022 року

Перевірка вихідних посилань сайту - процес виявлення посилань із сайту на сторінці інших ресурсів. Вихідні посилання сайту можуть знаходитися в контентній частині, технічних блоках типу футера, картинках або навіть css. Виявлення вихідних посилань сайту має значення у багатьох сео-процесах, наприклад, при виконанні аудиту сайту, або при аналізі домену як потенційного донора при купівлі лінка з нього.

Найзручнішим інструментом для виявлення посилань зазвичай визнається сервіс Ахрефс, однак він платний, оновлюється не в режимі реального часу, а крім того іноді веб-майстри закривають доступ від цього сервісу.

Прикладом такого сайту може бути gamersplatform.de. На скріншоті нижче видно, що Ахрефс не може дати список вихідних посилань, що може здаватися дивним. Недосвідчені сеошники або лінкбілдери можуть подумати, що з цього сайту не стоїть вихідних посилань. Але перевірити вихідні посилання дає змогу програма Screaming Frog. Інструкція отримання списку вихідних посилань сайту за допомогою цього краулера представлена нижче. Крім самого Screaming Frog знадобиться Google Таблиці.

Приклад сторінки аналізу вихідних посилань з Ахрефсу

Покрокова інструкція

Час виконання 10 хвилин

Необхідні інструменти:

Screaming Frog

Google Sheets

Крок перший: запуск краулера

Інструмент: Screaming Frog

Запускаємо перевірку Скрімін Фрогом сайту та чекаємо на закінчення роботи краулера.

Крок перший: запуск краулера

Крок другий: виділяємо сторінки

Інструмент: Screaming Frog

Виділяємо всі прокраулені сторінки за допомогою комбінацій ctrl+A, а потім натискаємо у нижньому вікні OUTLINKS. Що ми зробили таким чином: змусили програму показати всі вихідні посилання для всіх сторінок (включаючи посилання в коді, на картинках тощо)

Крок другий: знаходимо потрібні сторінки

Крок третій: експорт даних

Інструмент: Screaming Frog

Далі натискаємо кнопку Експорт в нижньому вікні або ж руками копіюємо (ctrl a + ctrl c) все нижнє вікно і вставляємо масив даних в Гугл таблицю - там зручніше очистити дані. Якщо ви експортували csv-файл, то вставити в Google таблицю її можна через меню Файл > Імпортувати > Завантажити з комп'ютера. Виходить така табличка (дивись картинку нижче), для якої потрібно увімкнути фільтр.

Крок третій: експорт даних

Крок четвертий: очищення даних

Інструмент: Google Sheets

Включаємо фільтр і фільтруємо дані по колонці "TO" (в цій колонці перечислені сторінки назначення вихідних посилань, тобто акцептор). Відфільтрувати потрібно всі рядки, що починаються з доменного імені сайту, який ми перевіряємо. Так ми приберемо всі внутрішні посилання на сайт.

Крок четвертий: очищення даних

Крок п'ятий: видалення повторів

Інструмент: Google Sheets

Посилання, що залишилися, можна скопіювати і вставити в нове вікно. Там можна очистити дані від повторів (Це робиться за допомогою меню Дані > Очищення даних > Видалення повторів). Таким чином, можна отримати всі унікальні урли, на які йдуть посилання з даного сайту.

Крок п'ятий: видалення повторів

Крок шостий: отримуємо доменні імена з масиву урлів

Інструмент: Google Sheets

Щоб отримати інформацію про унікальні донори-акцептори, потрібно виділити урли, що залишилися, і натиснути Дані > Розділити текст на стовпці. З'явиться меню, де буде запропоновано вибрати тип роздільника – ввести слєш (/). Після поділу даних по осередках, у стовпці С будуть домени (іноді можливо з піддоменами). Щоб прибрати піддомен www зі стовпця, необхідно виділити його, натиснути Змінити > Знайти та замінити, і в меню замінити “www.” нічого. Після цього осередки залишаться лише з доменамиюʼ. Очищаємо знову повтори відомим методом та отримуємо список унікальних доменів-акцепторів сайту, який ми перевірили.

Крок шостий: отримуємо домені імена з масиву урлів




Підпишись!

Так, тобі дуже сподобався контент на сайті, але... ти ніколи ні на що не підписуєшся, вірно? Будь ласка, зроби виняток для мене. Я сильно єбашу для того, щоб сайт не тільки ріс, але також був максимально якісним. Підтримай не проект - підтримай мене в моєму прагненні писати класно.