Інформація оновлена 2 грудня 2022 року
Перевірка вихідних посилань сайту - процес виявлення посилань із сайту на сторінці інших ресурсів. Вихідні посилання сайту можуть знаходитися в контентній частині, технічних блоках типу футера, картинках або навіть css. Виявлення вихідних посилань сайту має значення у багатьох сео-процесах, наприклад, при виконанні аудиту сайту, або при аналізі домену як потенційного донора при купівлі лінка з нього.
Найзручнішим інструментом для виявлення посилань зазвичай визнається сервіс Ахрефс, однак він платний, оновлюється не в режимі реального часу, а крім того іноді веб-майстри закривають доступ від цього сервісу.
Прикладом такого сайту може бути gamersplatform.de. На скріншоті нижче видно, що Ахрефс не може дати список вихідних посилань, що може здаватися дивним. Недосвідчені сеошники або лінкбілдери можуть подумати, що з цього сайту не стоїть вихідних посилань. Але перевірити вихідні посилання дає змогу програма Screaming Frog. Інструкція отримання списку вихідних посилань сайту за допомогою цього краулера представлена нижче. Крім самого Screaming Frog знадобиться Google Таблиці.
Час виконання 10 хвилин
Необхідні інструменти:
Screaming Frog
Google Sheets
Крок перший: запуск краулера
Інструмент: Screaming Frog
Запускаємо перевірку Скрімін Фрогом сайту та чекаємо на закінчення роботи краулера.
Крок другий: виділяємо сторінки
Інструмент: Screaming Frog
Виділяємо всі прокраулені сторінки за допомогою комбінацій ctrl+A, а потім натискаємо у нижньому вікні OUTLINKS. Що ми зробили таким чином: змусили програму показати всі вихідні посилання для всіх сторінок (включаючи посилання в коді, на картинках тощо)
Крок третій: експорт даних
Інструмент: Screaming Frog
Далі натискаємо кнопку Експорт в нижньому вікні або ж руками копіюємо (ctrl a + ctrl c) все нижнє вікно і вставляємо масив даних в Гугл таблицю - там зручніше очистити дані. Якщо ви експортували csv-файл, то вставити в Google таблицю її можна через меню Файл > Імпортувати > Завантажити з комп'ютера. Виходить така табличка (дивись картинку нижче), для якої потрібно увімкнути фільтр.
Крок четвертий: очищення даних
Інструмент: Google Sheets
Включаємо фільтр і фільтруємо дані по колонці "TO" (в цій колонці перечислені сторінки назначення вихідних посилань, тобто акцептор). Відфільтрувати потрібно всі рядки, що починаються з доменного імені сайту, який ми перевіряємо. Так ми приберемо всі внутрішні посилання на сайт.
Крок п'ятий: видалення повторів
Інструмент: Google Sheets
Посилання, що залишилися, можна скопіювати і вставити в нове вікно. Там можна очистити дані від повторів (Це робиться за допомогою меню Дані > Очищення даних > Видалення повторів). Таким чином, можна отримати всі унікальні урли, на які йдуть посилання з даного сайту.
Крок шостий: отримуємо доменні імена з масиву урлів
Інструмент: Google Sheets
Щоб отримати інформацію про унікальні донори-акцептори, потрібно виділити урли, що залишилися, і натиснути Дані > Розділити текст на стовпці. З'явиться меню, де буде запропоновано вибрати тип роздільника – ввести слєш (/). Після поділу даних по осередках, у стовпці С будуть домени (іноді можливо з піддоменами). Щоб прибрати піддомен www зі стовпця, необхідно виділити його, натиснути Змінити > Знайти та замінити, і в меню замінити “www.” нічого. Після цього осередки залишаться лише з доменамиюʼ. Очищаємо знову повтори відомим методом та отримуємо список унікальних доменів-акцепторів сайту, який ми перевірили.
Підтримуємо своїх!🇺🇦
Мій колега-сеошник став на захист України і зараз збирає на спорядження побратимові. Кожна гривня важлива!
Так, тобі дуже сподобався контент на сайті, але... ти ніколи ні на що не підписуєшся, вірно? Будь ласка, зроби виняток для мене. Я сильно єбашу для того, щоб сайт не тільки ріс, але також був максимально якісним. Підтримай не проект - підтримай мене в моєму прагненні писати класно.