Умы оптимизаторов продолжает занимать обновление в поисковой системе
Google, получившее кодовое имя "Panda". Новый алгоритм оценки качества
страниц был разработан в прошлом году, введён в строй в феврале, и в
апреле был распространён на сайты вне США, в том числе и на российские.
Обновление предсказуемо привело к понижению рейтинга многих сайтов в
поисковой выдаче, причём пострадали не только низкокачественные сайты.
По наблюдениям российских оптимизаторов из выдачи вылетело немало
'старых' конкурирующих сайтов и было оставлено много молодых при
примерно одинаковых качественных характеристиках. Компания как обычно не
разглашает технические подробности, но независимая аналитика продолжает
появляться с завидной регулярностью.
В частности, на днях на SEOmoz был опубликован интересный обзор, в
котором рассматриваются признаки 'слабого' контента и даются советы по
его улучшению. Автор выделил семь таких признаков. Обо всём по порядку.
1. Точные внутренние дубликаты. Это полные копии страниц на одном и том
же сайте, которые попали в индекс поисковика. Несмотря на то, что
дубликаты страниц не были основной мишенью обновления алгоритма оценки,
большое их количество на сайте может серьёзно усложнить вашу жизнь.
Избавиться от них можно двумя основными способами: через 301-й редирект,
либо через атрибут rel='canonical', который теперь поддерживается
Яндексом (подробности — ниже).
2. Точные дубликаты между сайтами. Это серьёзная проблема, поскольку
алгоритм не понимает разницу между законным дублированием контента и
незаконным. Если вы владеете всеми сайтами, хранящими перекрёстные
дубликаты, выберите, что является оригинальной публикацией, и
используйте тег canonical. Иначе Google может сделать выбор за вас, и не
факт, что выбор придётся вам по душе.
3. Почти точные внутренние копии. Здесь автор рассматривает два примера:
когда единожды написанная статья немного видоизменяется (заголовок,
ключевые слова) и в таком виде размножается на сайте, и когда речь идёт
об интернет-магазине с раздельными страницами вариантов одного и того же
товара. В первом случае почти точные дубликаты придётся закрыть от
индексирования, например, через META NOINDEX. Во втором случае имеет
смысл сконцентрировать внимание на позиции одной вариации товара и,
возможно, найти иные подходы
к продвижению нежели простая смена ключевых слов. Блокирование страниц
от индексирования может послужить решением и здесь.
4. Почти точные копии между сайтами. Типичный пример — когда реселлер
использует описания товаров, предоставленные производителем и уже
доступные на сайте производителя. Поскольку описание является ключевой
частью контента, производитель получает естественное преимущество в
поисковой выдаче. Решение здесь одно: частично переписывать текст и
разбавлять его отзывами клиентов или же собственными комментариями.
Начать можно с описаний самых популярных продуктов.
5. Низкий коэффициент уникальности. По сути это примерно то же, что и
почти точные внутренние копии страниц на одном сайте, но проблема эта
характерна для определённого класса сайтов, где собственно полезный
контент занимает всего ничего, а основная масса информации приходится на
элементы навигации и повторяющийся динамический контент. Совет здесь
тот же самый — либо увеличивать объём уникального контента, либо
выносить страницы из числа индексируемых. Если на страницах 95%
информации занимает повторяющаяся
обёртка к паре уникальных предложений, спросите себя, какую реальную
ценность они представляют.
6. Избыточное количество рекламы. Вам наверняка знакомы сайты, увешанные
баннерами со всех сторон. Судя по всему, Google умеет сопоставлять
количество уникального контента с количеством рекламы и считает, что на
качественных страницах они должны быть сопоставимы. Поэтому необходимо
либо убрать лишнюю рекламу, либо компенсировать её увеличением объёма
уникального контента.
7. Поиск в поиске. На многих крупных сайтах результаты поиска доступны
через ссылки (категории, алфавитные перечни, теги и пр.). Такие страницы
с точки зрения Google не представляют ценности в поисковой выдаче. Это
крайне спорный момент, поскольку индексируемые результаты поиска могут
быть значимыми и незначимыми. В общем случае, результаты внутреннего
поиска создающие почти идентичные страницы, лучше заблокировать от
индексирования.
Автор этой статьи
отмечает, что любые изменения, влияющие на индексирование сайта следует
тщательно продумывать. Кроме того, он считает, что выделенные признаки
не обязательно появились вместе с упомянутым обновлением и скорее
отражают долгосрочную политику Google относительно 'слабого' контента.
Это точка зрения подтверждается недавней публикацией в Google Webmaster
Central Blog, где отмечается, что Panda является лишь одним из примерно
500 изменений, которые запланировано в этом году внести в механизм
оценки качества страниц, причём с момента запуска Panda в алгоритмы
оценки уже внесено более дюжины изменений. Отвечая на популярный вопрос
'Что делать?', сотрудник Google предложил затронутой обновлением
аудитории ответить на более чем два десятка вопросов, помогающих понять,
насколько качество сайта
соответствует требованиям Google.
К этому можно добавить точку зрения российских специалистов, которые
практически хором отмечают негативное влияние высокой плотности ключевых
слов в тексте на позицию сайта в поисковой выдаче после внедрения
'панды'. Излишняя оптимизация положению сайта в топе только вредит.
Тем временем Google выпустил небольшое обновление Panda с номером 2.1.
Точные данные по проценту затронутых поисковых запросов в Google не
называют. По независимым же оценкам это обновление затронуло наименьшее
количество запросов с момента запуска нового алгоритма. Но впереди Panda
3.0.