Вследствие развития интернет-технологий поисковые системы научились распознавать дублированные страницы. Они негативно относятся как к полным дублям контента, так и к частичным.

Давайте же рассмотрим, какие же проблемы Вам может принести дублирование контента. Во-первых, это полный вылет страницы Вашего ресурса из индекса систем поиска. Во-вторых, занижение ее позиций в выдаче. А для выявления и предотвращения данной проблемы необходимо выяснить случаи, когда дублирование контента может произойти.

Что представляет собой дублирование контента? Пути решения данной проблемы


Смотрите полный видеокурс на iTunes

Источниками дублей, в первую очередь, являются RSS-ленты и служебные веб-страницы. Кроме того, к ним можно отнести создаваемые системой управления веб-ресурсов дубли контента и страницы, которые непосредственно предназначены для печати.

На данный момент можно обозначить 3 способа, которые позволят Вам проверить текст на уникальность. Во-первых, это бесплатные программы: eTXT Антиплагиат, double content finder и advego plagiator. Во-вторых, Вы имеете возможность воспользоваться online-проверкой с помощью сервисов istio.com, antiplagiat.ru, findcopy.ru и copyscape.ru. Третий способ проверки – поисковые системы.

Как проверить дублированный контент?

Рассмотрим данную процедуру на примере Яндекса. Для того чтобы Вам показали все скрытые страницы, необходимо, в первую очередь, вписать в поле «я ищу» название страницы, которую Вы хотите проверить на наличие дублей, после чего вбить в строчку «на сайте» название web-ресурса (при расширенном поиске Яндекса). Далее просто нажимаем «Найти», и все страницы, которые имеют те или иные совпадения, будут Вам видны.

В случае обнаружения дублированного контента на страницах Вашего ресурса необходимо его немедленно удалить, а в случае, если такую процедуру не удается осуществить, требуется закрыть текст от индексации. Для этого можно использовать такие инструменты, как:

1) мета-тег «robots». Расположен он внутри html-кода страницы. Его основная функция заключается в обозначении поисковым системам возможности индексации той или иной страницы с текстом, а также в указании, по каким ссылкам можно проходить, а по каким нельзя. Данный мета-тег имеет несколько атрибутов: follow и nofollow – учитывать и не учитывать ссылки, index и noindex – индексировать и не индексировать, all и none – индексировать все и не индексировать ничего;

2) специальный тег «noindex» поисковой системы Яндекс, при помощи которого Вы имеете возможность закрыть от индексации совершенно любую часть текста, которая видна поисковой системе, однако учитываться не будет.

Также для закрытия от индексации некоторых страниц Вашего сайта Вы можете использовать файл «Robots.txt», о котором мы уже рассказывали в пределах нашего видеокурса  в статье «Как правильно создать robots.txt«. Хочется напомнить лишь то, что данный документ способен скрыть служебные разделы Вашего электронного ресурса, указать на главное зеркало web-сайта, давать определенные рекомендации роботу-поисковику и прочее. Кстати,  интересный метод использует интернет магазин бытовой техники , используя лучший вариант в своем роде, избежав дублирование контента.

Из вышеизложенной информации можно увидеть, что дублирование контента не является нерешаемой проблемой, так как устранить ее довольно-таки просто. Главное – вовремя обнаружить недостаток и исправить его. На самом деле, уникальная информация на Вашем интернет-ресурсе является неотъемлемым элементом SEO-продвижения.

Все поисковые системы проводят тщательный анализ контента, и в случае выявления ими дублей немедленно выбрасывают его из индекса. Как показывает практика, своевременно обнаружение подобной проблемы и ее устранение поможет Вам добиться максимального успеха и вывести Ваш сайт в ТОП поисковой выдачи. И запомните: даже те тексты, которые написаны Вами собственноручно, либо же по специальному заказу, должны быть Вами проверены на наличие дублей.