dybliВласник може і не підозрювати, що на його сайті деякі сторінки мають копії – найчастіше так і буває.

Сторінки відкриваються, з їх вмістом все гаразд, але якщо тільки звернути увагу на URL, то можна помітити, що при одному і тому ж контенті адреси різні. Що це означає?

Для живих користувачів рівним рахунком нічого, так як їм цікава інформація на сторінках, а ось бездушні пошукові машини сприймають таке явище зовсім по-іншому – для них це абсолютно різні сторінки з однаковим контентом.

Чи шкідливі дублі сторінок?

Отже, якщо рядовий користувач навіть не зможе помітити наявність дублів на вашому сайті, то пошуковики це відразу визначать. Якої реакції від них чекати? Так як по суті копії пошукові роботи бачать як різні сторінки, то контент на них перестає бути унікальним. А це вже негативно позначається на ранжируванні.

Також наявність дублів розмиває контрольний вагу, яку оптимізатор намагався зосередити на цільовій сторінці. Через дублі, він може виявитися зовсім не на тій сторінці, на яку його хотіли перенести. Тобто ефект від внутрішньої перелінковки і зовнішніх посилань може багаторазово знизитися.

У переважній більшості випадків у виникненні дублів винні CMS – через неправильні налаштування і відсутності належної уваги оптимізатора генеруються чіткі копії. Цим грішать багато CMS, наприклад, Joomla. Для вирішення проблеми важко підібрати універсальний рецепт, але можна спробувати скористатися одним з плагінів для видалення копій.

Виникнення ж нечітких дублів, в яких вміст не повністю ідентичний, зазвичай відбувається з вини вебмастра. Такі сторінки часто зустрічаються на сайтах інтернет-магазинів, де сторінки з картками товарів відрізняються лише кількома реченнями з описом, а весь інший контент, що складається з наскрізних блоків та інших елементів, однаковий.

Багато фахівців стверджують, що невелика кількість дублів не зашкодить сайту, але якщо їх більше 40-50%, то ресурсу при просуванні можуть чекати серйозні труднощі. У будь-якому випадку, навіть якщо копій не так багато, варто зайнятися їх усуненням, так ви гарантовано позбавитеся від проблем з дублями.

Пошук дублів сторінок-копій

Існує кілька способів пошуку дубльованих сторінок, але для початку варто звернутися до кількох пошукових машин і подивитися, як вони бачать ваш сайт – потрібно лише порівняти кількість сторінок в індексі кожного. Зробити це досить просто, не вдаючись до жодних додаткових засобів: в «Яндексі» або Google достатньо в рядок пошуку ввести host: yoursite.uа і подивитися на кількість результатів.

Якщо після такої простої перевірки кількість буде сильно відрізнятися, в 10-20 разів, то це з деякою часткою ймовірності може говорити про зміст дублів в одній з них. Сторінки-копії можуть бути і не винні в такій різниці, але тим не менш це дає привід для подальшого більш ретельного пошуку. Якщо ж сайт невеликий, то можна вручну порахувати кількість реальних сторінок і потім порівняти з показниками з пошукових систем.

Шукати дубльовані сторінки можна за URL у видачі пошуковика. Якщо у них повинні бути ЧПУ, то сторінки з URL з незрозумілих символів, на кшталт «index.php? S = 0f6b2903d», будуть відразу вибиватися із загального списку.

Ще один спосіб визначення наявності дублів засобами пошукових систем – це пошук по фрагментах тексту. Процедура такої перевірки проста: треба ввести фрагмент тексту з 10-15 слів з кожної сторінки в рядок пошуку, а потім проаналізувати результат. Якщо у видачі буде дві і більше сторінок, то копії є, якщо ж результат буде всього один, то дублів у даної сторінки немає, і можна не хвилюватися.

Методи вирішення проблеми з дублями

Після того як всі дублі будуть знайдені, потрібно їх усунення. Це теж можна зробити декількома способами, але для кожного конкретного випадку потрібен свій метод, не виключено, що доведеться використовувати їх всі.

Сторінки-копії можна видаляти вручну, але такий спосіб швидше підійде тільки для тих дублів, які і були створені ручним способом по необачності вебмасйтра.

Редірект 301 відмінно підходить для склеювання сторінок-копій, URL яких відрізняються наявністю і відсутністю www.

Вирішення проблеми з дублями за допомогою тега canonical можна застосовувати для нечітких копій. Наприклад, для категорій товарів в Інтернет-магазині, які мають дублі, що відрізняються сортуванням по різних параметрах. Також canonical підійде для версій сторінок для друку і в інших подібних випадках. Застосовується він досить просто – для всіх копій вказується атрибут rel = “canonical”, а для основної сторінки, яка найбільш релевантна, – ні. Код повинен виглядати приблизно так: link rel = “canonical” href = “http://yoursite.uа/stranica-kopiya” /, і стояти в межах тега head.

У боротьбі з дублями може допомогти настройка файлу robots.txt. Директива Disallow дозволить закрити доступ до дубля для пошукових роботів. Детальніше про синтаксис цього файлу ви можете прочитати у випуску № 64 нашої розсилки.

Висновки

Якщо користувачі сприймають дублі як одну сторінку з різними адресами, то для павуків це різні сторінки з дубльованим контентом. Сторінки-копії – це один з найпоширеніших підводних каменів, який не можуть обійти новачки. Їх наявність у великій кількості на просувати сайті неприпустимо, тому що вони створюють серйозні перешкоди для виходу в ТОП.