Каждый специалист по поисковой оптимизации рано или поздно останавливается на определённой тактике продвижения. Возможно, вы прочитали сотню постингов в блогах о том, как конструировать оптимально оптимизированные URL, и теперь только и занимаетесь тем, что доводите их до совершенства. Но вот проходит пара месяцев, файл .htaccess оброс многоуровневыми 301-ми редиректами, у вас всё ещё нет времени заняться наращиванием обратной ссылочной массы, и вы перестали писать новый контент. Стоило ли оно того?Любые изменения — это риск. Вероятно, это звучит не слишком ободряюще, но в реальном мире каждое изменение сопровождается риском. Даже если переработка URL по всему сайту проведена идеально, а редиректы безупречны, у поисковиков всё равно уйдёт немало времени на обработку изменений. За это время ваш сайт может сдать позиции в выдаче, могут возникать ошибки, и если новая схема URL не является принципиально лучшей, некоторые страницы могут навсегда потерять лидирующие позиции. Ко всему прочему, надёжного способа провести A/B-тестирование изменений всего сайта в целях поисковой оптимизации попросту не существует. Чаще всего дело кончается мизерной отдачей. Переход от хорошего к едва лучшему скорее всего не стоит времени и сил, не говоря уж о риске. Когда же надо менять адреса? Один из авторов блога SEOmoz Доктор Пит рассматривает пять случаев, когда модификация структуры URL может быть полезна. 1. Динамические адреса Динамические URL содержат параметры, по который генерируется контент. Вот типичный пример: www.example.com/product.php?id=12345&color=4&size=3&session=67890 Существует распространённое заблуждение, что Google не может читать такие адреса или перестаёт читать их после двух-трёх параметров. В наши дни это попросту неправда, хотя у длины URL существуют разумные пределы. Настоящие проблемы с динамическими URL гораздо сложнее: - они не содержат релеватных ключевых слов;
- они чаще привоядт к созданию дублирующегося контента;
- пользователи переходят по ним с меньшей охотой;
- у них есть тенденция увеличиваться.
Когда можно начинать говорить о том, что URL слишком «динамические»? Пример выше — явно тот случай, когда нужно внести изменения. Этот адрес слишком длинный, в нём нет релевантных ключевых слов, параметры "color" и "size" скорее всего создают тонны страницы, близких к точным дубликатам, а идентификатор сеанса делает количество таких дубликатов просто бесконечным. Это надо исправлять. Но это простой случай. Всё может быть гораздо сложнее. Как вам такой пример? www.example.com/blog.php?topic=how-to-tame-a-panda С технической точки зрения, это динамический URL, так что его надо поменять на что-то вроде: www.example.com/blog/how-to-tame-a-panda Однако вероятность того, что либо вы получите весомое преимущество, либо выигрыш перевесит риски, достаточно мала. В идеальном мире второй вариант, конечно, лучше, и если начинать блог с нуля, этот вариант, несомненно, предпочтительнее. Но если речь идёт об уже сложившемся блоге с тысячами страниц, лучше оставить всё как есть. 2. Неструктурированные URL Ещё один типичный пример, вызывающий волнения — что адреса не соответствуют структуре сайта. Допустим, есть такой URL: www.example.com/diamond-studded-ponies Некоторые веб-мастера думают, что надо добавить папки для отражения внутренней иерархии, например, так: www.example.com/horses/bejeweled/diamond-studded-ponies Считать, что структура URL отражает структуру сайта — ошибочно. Если главная часть URL находится в трёх уровнях от доменного имени, это ещё не значит, что поисковики воспримут её как таковую. С этим утверждением можно поспорить, сказав, что второй вариант осмысленнее для посетителей. К сожалению, он ещё и длиннее, а самые уникальные ключевые слова оказываются в хвосте. В большинстве случае первый вариант является более предпочтительным. Разумеется, действует и обратное правило. Если у адресов плоская структура, и каждая страница находится на одном уровне глубины, это ещё не значит, что вы создали плоскую иерархию сайта. Google по-прежнему индексирует страницы по созданным вами путям. Возможно, у более плоских URL есть несущественные преимущества, но это никак не повлияет на ранжирование. Структурные URL могут стать причиной проблем с дублирующимся контентом. Предположим, вы даёте посетителям возможность попасть на одну и ту же страницу тремя разными способами: www.example.com/horses/bejeweled/diamond-studded-ponies www.example.com/tags/ponies/diamond-studded-ponies www.example.com/tags/shiny/diamond-studded-ponies Замечательно — вы только что создали две копии уже существующего контента, и поисковик увидит три одинаковых страницы. Это скорее проблема индексации нежели чем URL, но для контроля индексации существуют свои средства. А вот избыточно структурированные URL только ухудшат положение дел. 3. Длинные URL Когда длинный адрес становится слишком длинным? Чисто технически, адрес должен быть настолько длинным, насколько это необходимо. У некоторых браузеров и серверов есть определённые пределы, но они находятся далеко за пределами разумного. Например, IE8 поддерживает адреса длиной до 2083 символов. С практической точки зрения длинные URL чреваты проблемами. Слишком длинные URL: - уменьшают ранжируемость любого данного ключевого слова в URL;
- могут понижать читаемость и кликабельность ссылок;
- могут отрезаться при копировании через буфер обмена;
- могут обрезаться некоторыми соцсетями;
- слишком плохо запоминаются.
Поиск меры здесь относится скорее к искусству, чем к науке. Одним из ключевых критериев можно считать повторяемость. Общий принцип прост: если есть что-то, не добавляющее никакой ценности, от этого лучше избавиться. Например, вот URL с большим количеством повторов: www.example.com/store/products/featured-products/product-tasty-tasty-waffles Если уже есть каталог "/store", так ли уж нужен подкаталог "/products"? Если мы знаем, что вы уже внутри подкаталога "store/products", действительно ли нужно помечать категорию как "featured-products" (почему бы не просто "featured")? А эта подкатегория "featured" вообще нужна? И надо ли каждую запись о продукте начинать со слова "product-"? Вафли действительно такие вкусные, что эту характеристику надо повторить? Можно найти и куда как более запущенные случаи, просто этим примером проиллюстрированы наиболее типичные проблемы. Опять же, нужно принимать во внимание компромиссы. Исправление адреса вроде приведённого выше, возможно, даст отдачу в поисковой оптимизации. Удаление записи "/blog" из адресов всех постингов в блоге может быть желательным, но на практике это не даст никаких преимуществ. 4. Переполнение ключевыми словами Сценарии 3-5 в чём-то пересекаются. Адреса, под завязку набитые ключевыми словами, имеют тенденцию разрастаться и пожирать другие страницы. Как правило, в перенасыщенном ключевыми словами адресе либо много повторов, либо предпринята попытка уместить каждый вариант целевой фразы. Вот вам пример: www.example.com/ponies/diamond-studded-ponies-diamond-ponies-pony Случаи пессимизации исключительно по переоптимизированным URL пока что редки, но обычно такие адреса являются для поисковика лишним индикатором заспамленности страницы. Даже если поисковик вас не наказывает, стоит задуматься о фокусе. Таким способом вы действительно можете привлечь больше посетителей, но при это каждая фраза будет получать меньше внимания. Выстраивайте приоритеты и концентрируйтесь на самом важном. Это касается не только адресов, но и всего, что связано с ключевыми словами. Если швырять в стенку всё, что попадается под руку, чтобы посмотреть, что прилипнет, обычно вы просто получите грязную стенку. 5. Каннибализм в среде ключевых слов Возможно, это самая тяжелораспознаваемая проблема, поскольку она работает на уровне всего сайта, и распознать её по одному адресу не представляется возможным. Да и, строго говоря, это не проблема адреса. Каннибализм у ключевых слов происходит в тех случаях, на одни и те же ключевые слова приходится слишком много адресов. Однозначного решения этой проблемы не существует, поскольку у сайта, посвящённого некоторой узкой тематике, совершенно естественным образом будут страницы и адреса с пересекающимися ключевыми словами. Это обычное дело. Проблемы начинаются тогда, когда вы делите страницы на множество подстраниц, чтобы собрать все возможные варианты с длинными хвостами. Стоит только увлечься этим занятием, как ценность проиндексированных страниц в глазах поисковика начинает теряться, и сайт в его глазах становится слабеньким. В данном случае адреса являются просто симптомом болезни, протекающей на системном уровне. Если вы оказались слишком амбициозны, вам придётся консолидировать эти страницы, а не просто поменять адреса. Если раньше «слабый» контент отражался только на собственно контенте, то сейчас это учитывается при ранжированнии целых сайтов. Действуйте осторожно Если вы всё-таки считаете, что глобальная смена адресов стоит риска, продумайте план и последовательно выполните его. Процедура планирования смены URL выходит за рамки этой статьи, но есть несколько основных моментов, которые надо учитывать: - Используйте 301-е редиректы.
- Используйте редиректы вида адрес-на-адрес для каждой страницы, которую хотите сохранить.
- Обновите все внутренние ссылки.
- Не выстраивайте редиректы в цепочку, если без этого можно обойтись.
- Добавьте новую XML-карту сайта.
- На время оставьте старую карту сайта.
Третий пункт автор публикации предлагает раскрыть подробне, поскольку ему не раз доводилось наблюдать, как после технических изменений на всём сайте и прописывания 301-х редиректов исполнитель забывал обновить всю навигацию на самом сайте. Для поисковиков видимые пути индексации всё ещё являются самым весомым сигналом. Словом, убедитесь, что внутренняя структура на 100% согласована с новыми URL. Последний пункт в списке не вполне очевиден, но есть немало специалистов, которые на этом настаивают. Объясняется это очень просто: если поисковики перестают видеть старые адреса, они могут перестать ходить по ним и, таким образом, не могут обработать все 301-е редиректы. Рано или поздно они найдут все новые URL, но на это может уйти больше времени. На время оставив старую карту сайта, вы дадите роботам больше возможностей обработать редиректы, и если эти редиректы правильно настроены, дублирующийся контент создан не будет. Обычно старую карту сайта можно удалять через пару-тройку недель. Даже если вы сделали всё правильно, первую пару недель позиция сайта в выдаче будет прыгать с места на место. Поисковикам нужно некоторое время на то, чтобы оценить новую структуру сайта. Статья основана на публикации "Should I Change My URLs for SEO?", опубликованной в блоге SEOmoz. |