Сейчас, когда Google понимает JavaScript и формы, оптимизаторам и
вебмастерам нужно придумывать новые способы управления дублированным
контентом.
Раньше многие сайты применяли фильтры (по цвету, размеру, цене и т.д.),
используя выпадающее меню на JavaScript. Google обычно избегал таких
форм и не было поводов для беспокойства, что Google распознает
одинаковый, но отфильтрованный материал.
Однако на сегодняшний день вебмастерам нужно придумать что-то новое, чтобы Google не индексировал повторяющийся контент.
В одном из топиков на WebmasterWorld ведется дискуссия на эту тему и даются советы по решению этой проблемы. Вот некоторые из них:
- Следует использовать дублированный материал во внешнем Js и применять innerHTML;
- Следует использовать XmlHTTPRequest (GET), чтобы получить данные в XML-формате и затем отобразить их на странице;
- Следует использовать Ajax POST, чтобы получить XML-контент;
- Следует использовать robots.txt, чтобы блокировать отдельные файлы и/или группу страниц.
Существует также другие пути решения этого вопроса, и использование только JavaScript – не самый лучший из них.
Подробности на WebmasterWorld
Изменения в рейтинговой системе Alexa
В последнее время рейтинговая система Alexa претерпела некоторые
изменения. Согласно официальным заявлениям, обновленная версия
«собирает данные из нескольких ресурсов, и помогает вебмастеру более
точно оценить популярность его сайта среди всех серферов интернета».
В связи с изменениями алгоритмов подсчета трафика большинство
пользователей Alexa могли наблюдать значительный спад в ранжировании
своих сайтов. Пока о значении показателей не стоит волноваться,
поскольку до сих пор ведутся пересчеты и реальные позиции сайтов еще
точно не выявлены.
Подробности на DigitalPoint Forums и Webmaster Talk
Хостинговая компания заявляет, что скорость сервера существенно влияет на SEO
Как стало известно из одной дискуссии на форуме Cre8asite Forums , английская хостинговая компания UKFast опубликовала официальное сообщение по поводу взаимосвязи скорости сервера и SEO.
В этом документе говорится о том, что скорость сервера является важным компонентом для продвижения сайта.
Скорость отклика сайта помогает поисковым машинам оценивать
релевантность сайта, потому что скорость является одним из критериев
успешного сайта.
Чем мощнее и быстрее сервер, тем быстрее загружается сайт, который в
связи с этим занимает более высокое положение при выдаче результатов
поисковой системой.
…Это связано с тем, что Google поощряет успешные сайты, которые
предоставляют отличный сервис для серферов. Более того, быстрый сервер
означает, что для поисковых роботов легче обрабатывать подобные сайты.
Это в свою очередь ведет к тому, что последние индексируются на более
регулярной основе и обновляются поисковыми системами чаще.
В техническом плане, очень медленный сервер действительно может
отрицательно повлиять на позиции Вашего сайта в поисковых системах. Но
может ли супер быстрый сервер улучшить его положение, остается
вопросом.
Подробности на Cre8asite Forums master-x.com/articles/article/406/page/2/
|