Главная Услуги Работы Персона Юзабилити анализы
IMG тел. +7(901) 370-1796
SEO-дайджест: январь 2007 г.




ПОИСК по сайту


    Полный список статей
/ SEO-дайджест / Версия для печати / translit / абракадабра :-)


<-предыдущая следующая ->

 
  google.com bobrdobr.ru del.icio.us technorati.com linkstore.ru news2.ru rumarkz.ru memori.ru moemesto.ru smi2.ru twitter.com Яндекс закладки text20.ru RuSpace RuSpace toodoo


Новые функции в Yahoo! Site Explorer: «Изменить ваш Yahoo! Password»

Yahoo! анонсировал запуск новых возможностей в их Site Explorer Tool. К слову, Site Explorer был запущен 29 сентября 2005 года, и был тогда единственным в своем роде. Потом появился инструмент Sitemaps от Google, переименованный позднее в Google Webmaster Central.

Новые возможности, добавленные Yahoo!, включают в себя:

  • идентификацию сайта с помощью META-тэгов
  • детализированная информация по ошибкам идентификации
  • удаление URLов
  • бейдж Site Explorer

    Две первые возможности весьма полезны. Последняя, бейдж Site Explorer, рассматривается ниже.

    А вот возможность удаления URLов меня слегка пугает. От греха подальше, я сменил мой ID- пароль в Yahoo! на более сложный.

    Все, что нужно – это зайти на свой аккаунт (или чей-то чужой), и нажать на опции «Delete URL». Я не пробовал делать это. Хочется верить, что далее будет еще один слой с подтверждением действия. Возможно, требование добавить мета-тэг или еще что-то для подтверждения серьезности намерений, или дополнительное письмо-подтверждение на почтовый ящик, не принадлежащий Yahoo!

    Как бы то ни было, я уже сменил свой пароль на аккаунте Yahoo!, рекомендую и вам подумать о том же.

    Тим Мейер (Tim Meyer) из Yahoo! объясняет более детально возможности новой фичи Delete URL:

    Если я пользуюсь функцией «Delete URL», нужно ли мне использовать также файл Robots.txt? Да. Как только вы воспользовались опцией Delete URL, чтобы удалить URL из нашего индекса, мы советуем воспользоваться файлом robots.txt, чтобы исключить возможность повторного добавления контента в наш индекс. Robots.txt предотвратит ре-индексирование вашего контента кроулером Yahoo!(Slurp). Правило-исключение, прописанное в файле Robots.txt, уменьшит количество страниц, которые Slurp будет считывать с вашего сервера. Разгрузите канал вашего вебсайта.

    Примечание: Сервис Delete URL из интерфейса Site Explorer облегчает удаление вашего URL из нашего индекса, и помогает в том случае, если URL, который вы исключили из индексирования. Продолжает появляться в индексе. Однако этот сервис не предотвратит попытки нашего поискового паука снова просматривать URL. Этот сервис – не альтернатива использованию файла Robots.txt


    Обсуждение на WebmasterWorld и Search Engine Roundtable Forums.


    Почему некоторые SEO хотят убрать тулбар PageRank?

    Не так давно, жаркая дискуссия разгорелась по поводу оценок PageRank, появляющихся внутри Google Toolbar. Поэтому я решил объяснить, почему мне и многим другим SEO хотелось бы убрать оценку PageRank из Google Toolbar.

    В старые добрые времена, поисковые оптимизаторы делали все возможное, чтобы увеличить значение PageRank. Стоило вам заполучить PageRank 7 или выше – и дело сделано. Вы могли заработать хороший ранкинг практически для чего угодно, если ваши SEO-усилия подкреплялись качественной работой по оптимизации самих страниц. Однако лафа быстро закончилась, где-то в районе апдейта Florida в ноябре-декабре 2003 года. Однако оптимизаторы продолжали наблюдать за обновлениями тулбара PR, чтобы проследить эффективность получения ссылок с сайтов с высоким PR. Если работа в этом направлении велась хорошо, можно было наблюдать увеличение собственного PR и немедленное улучшение ранкингов. Оптимизаторы получили возможность наблюдать даже за прохождением очередного апдейта, когда различные дата-центры Google содержали отличающиеся друг от друга данные. Ранкинги Google могли измениться на одном из дата-центров, показатели залинковки тоже изменялись, соответственно мог измениться и PageRank. Отсюда и пошел термин Google Dance. Но и эти времена уже прошли. Сейчас Google обновляется практически ежедневно. Текущие значения залинковки в Google практически бесполезны. Дата-центры Google обновляются весьма часто.

    И вот, с тех пор, ведущие SEO-специалисты, и даже инженеры из Google, без устали объясняют, что PageRank уже не настолько важен, как несколько лет назад. А некоторые пошли еще дальше, объявив войну психозу вокруг Google PageRank. В Швеции один из представителей Google сказал, что команда “link” не имеет особого смысла, позднее кто-то процитировал представителя Google с утверждением, что PageRank служит только для развлечения. А еще позднее эта версия была опровергнута товарищем GoogleGuy. Было и еще несколько постингов: «GoogleGuy снова отвечает на команду Link» и «Почему Google показывает старые значения PageRank?»

    Принимая во внимание вышесказанное, вполне понятно, почему многие хотели бы, чтобы оценка PageRank исчезла из тулбара Google. Хотя я уверен, что в ближайшем будущем этого не произойдет. Более того, большинство технических специалистов с удовольствием распрощались бы с ним, однако маркетологам сделать это будет намного сложнее. Я говорю это не от лица Google, это мои собственные мысли.

    Итак, многие были одержимы значениями PageRank, и не без оснований. Так почему же оптимизаторы, и даже некоторые представители Google, не советуют зацикливаться на этом параметре? Вот что говорит об этом Матт Катс в своем постинге «Подробнее о PageRank»:

    В какой-то момент, мы взяли наши внутренние значения PageRank, привязали их к шкале от 0 до 10, и экспортировали их для возможности просмотра пользователями Google Toolbar. Если вы тратите слишком много времени на выяснение точной даты, когда были приобретены обратные ссылки, у вас скорее всего острая форма «ООС» (одержимость обратными ссылками). Надо переключиться на что-либо другое, пока ООС не пройдет.


    PageRank на тулбаре показывает информацию о сайте. Однако времена, когда изменения PR на тулбаре были равносильны изменению ваших ранкингов в Google. Это всего лишь индикатор качества ссылок, которые ведут на ваш сайт. Однако этот индикатор устарел и не работает в режиме реального времени – поймите это.

    Обсуждение на Search Engine Roundtable Forums


    Yahoo! Site Explorer предлагает вам показывать ваши ссылки с бейджами

    Yahoo! Site Explorer, вебмастерский инструмент от Yahoo!, который предоставляет информацию о расположении ваших страниц и сайта в индексе, а также показатели ссылок на ваши ресурсы, выпустил беджи. Эти бейджи от Yahoo! Site Explorer можно помещать на вашем сайте, чтобы показывать, сколько ссылок имеет данная страница или сайт в целом.

    Как по мне, я нахожу странным, что Yahoo! предлагает этот беджик. Что-то не так в этой сказке. Хотя я могу и ошибаться.

    Обсуждение на Search Engine Roundtable Forums.

    Google относится к Wikipedia слишком хорошо?

    Ветка на Webmasterworld подняла тему отношения Google к Wikipedia. Наверняка, все сталкивались с тем, что при поиске чего-то необычного вероятность обнаружить в топе результат из Wikipedia довольно высока.

    Вот несколько случайных результатов поиска, на момент написания мной этих строк:

  • parrots - Wikipedia #1
  • farm - Wikipedia #3
  • Viagra - Wikipedia #2
  • baseball - Wikipedia #2
  • search engine - Wikipedia #4

    Chris писал об этом в июле 2006 года – «Подъем Wikipedia – падение DMOZ?»

    Есть над чем подумать. С учетом того, что в прошлом Google относился слишком хорошо к DMOZ.

    Обсуждение на Webmasterworld

    Иконки Google Checkout в объявлениях AdSense

    В топике на DigitalPoint Forums, один из участников упоминает о появлении иконки Google Checkout в объявлениях AdSense. Вы видите небольшое изображение «потребительской тележки» после поискового запроса в Google. Спонсорские листинги ведут на сайт, который участвует в программе Google Checkout. Лично я еще ни разу не видел вживую результаты Google AdSense (объявления на сайте, участвующем в этой программе), которые содержали бы эту иконку.

    В качестве доказательства участник форума DigitalPoint приводит скриншот результатов поиска. (Технически этот скриншот мог быть сфабрикован, однако я не думаю, что мы имеем дело с фальсификацией).

    Ранее этот феномен рассматривался нами в теме под названием «Google тестирует иконки Google Checkout в объявлениях AdSense?»

    Обсуждение на DigitalPoint Forums


    Сбор веб-статистики ваших конкурентов

    Познавательная ветка на Search Engine Watch Forums поднимает вопрос сбора информации о веб-статистике ваших конкурентов. Самый эффективный способ, конечно, - посмотреть непосредственно лог-файлы. Но в большинстве случаев это невозможно. Тогда как можно получить необходимые данные?

    Вот некоторые из советов:

  • Alexa – однако все мы знаем, что ее результаты не всегда точны
  • Quantcast – бесплатная служба Интернет-рейтингов
  • Compete – подобие Alexa

    В обсуждении приводятся и другие сервисы, однако я настоятельно рекомендую вам ознакомиться со списком, приведенным Rand – «Список веб-статистики сайтов, находящийся в свободном доступе». Весьма полный список общедоступных инструментов, которые помогут вам собрать максимально возможную информацию о веб-статистике вашего конкурента

    Обсуждение на Search Engine Watch Forums

    Переходите на новый домен? Редиректы 301 против редиректов 302

    Итак, достопочтенные оптимизаторы, Scottie Claiborne написала статью для популярного списка рассылки Jill Whalen, под названием «Переход на другой домен без потери ранкингов в Google». В статье Scottie рекомендует временное использование 302 редиректов, чтобы Google Сохранил ваши текущие ранкинги. Вот ее непосредственный совет:

    Используя 302 ответ - «временно перемещен» - вместо 301, исходный URL будет оставаться в индексе Google, и удерживать свои позиции, как если бы страница все еще была доступна. Однако пользователи, которые будут кликать на ссылке, попадут на ваш новый URL, - именно туда, куда вы намерены их направить. Это оптимальное решение в данной ситуации – вы удерживаете ранкинги в течение необходимого периода становления сайта, а пользователи переадресуются на новый и правильный домен.

    Как только 302-редирект начал работать, совершенно необходимо запускать кампанию по залинковке нового сайта. Вам потребуются ссылки, ведущие на него, чтобы сайт ранжировался высоко после того, как он выйдет из-под действия «фильтра на зрелость» (Aging filter). Когда вы заметите, что новый домен начал появляться в ранкингах (для этого обычно требуется от 6 до 12 месяцев), вам потребуется обратиться к вашим предыдущим партнерам по залинковке, чтобы они обновили свои ссылки со старого домена на новый.

    Как только новый домен станет достаточно зрелым, меняйте временный 302-редирект на постоянный 301-редирект.


    Я слышал, что это работало год назад. Однако я никогда не рекомендовал бы подобную последовательность действий.

    Статья довольно старая, и датирована она довольно давним числом. Будьте осторожны с устаревшими статьями. То, что работало в прошлом, может стать губительным в будущем.

    Недавняя ветка на High Rankings рассказывает о том, как один из участников попробовал этот метод в действии. Он утверждает, что был жестоко наказан:

    Следуя совету Scottie, я установил 302-редирект, и все шло прекрасно. Однако на прошлой неделе Google решил, что нужно удалить из результатов все страницы с 302-редиректом. Страницы все еще находятся в индексе, но они не попадают даже в топ-10000 результатов по запросам, в которых они стояли первыми.



    Поэтому я решил провести собственное исследование, а заодно и спросить у Google, что нужно делать в подобных случаях.

    (1) http://books.google.com/webmasters/3.html пункт 2 утверждает: (2)

    2. Перевод моего сайта на новый URL

    Если Вы сменили ваш URL, или планируете сделать это, и хотите, чтобы Google отображал ваш новый URL, пожалуйста помните, что мы не сможем вручную изменить адреса вашего сайта в наших поисковых результатах. Поэтому вы можете предпринять следующие шаги, чтобы обеспечить безболезненный переход:

    Если Ваши старые URL редиректят на новый сайт с использованием HTTP 301 (постоянных) редиректов, наш кроулер обнаружит новые URL. Для получения подробной информации о 30 HTTP редиректах, посетите http://www.ietf.org/rfc/rfc2116.txt

    Листинги Google базируются, отчасти, на нашей способности найти ваш сайт по ссылкам с других сайтов. Чтобы сохранить ваш ранкинг и помочь нашему кроулеру найти ваш новый URL, вам нужно известить тех, кто ссылается на вас, о смене вашего адреса. Чтобы получить список тех, что ссылается на ваш сайт, воспользуйтесь поиском по ссылкам в формате «link:[ваш полный URL]” в поисковой форме Google. Чтобы найти большее количество страниц, на которых упоминается ваш URL, воспользуйтесь поиском Google по вашему URL, выбрав ссылку «Найти веб-страницы, которые содержат термин». Не забудьте, также, сменить все записи в директориях, подобных Yahoo! или Open Directory Project.

    И, наконец, вы можете отправить список ваших новых URL через программу Google Sitemaps (Beta). Google Sitemaps использует создаваемые вебмастерами файлы Sitemap для получения информации о ваших веб-страницах и для перенаправления наших кроулеров на новый и обновленный контент.

    Иногда, во время перевода сайта, мы можем не найти его по новому адресу. Поэтому убедитесь, что остальные ссылаются на вас, тогда мы наверняка обнаружим ваш новый сайт.


    (3) Постинг Vanessa Fox под названием «Подробнее об изменении доменных имен»: (4)

    Недавно мне задали вопрос о переходе с одного домена на другой. Вебмастер прочитал о том, что Google рекомендует использование 301-редиректа, чтобы помочь Googlebot узнать о переходе; однако вебмастер был терзаем сомнениями, стоит ли делать это. А что если Googlebot перейдет по 301 на новый сайт, обнаружит, что последний содержит такой же контент, как и страницы с уже проиндексированного старого сайта, решит, что это дублированный контент, и не станет индексировать его. Вебмастер хотел понять, может быть 302 редирект будет более приемлемым решением.

    Я сказала ему, что здесь нужен 301 редирект. 302 редирект сообщает Googlebot, что переход временный, и что Google должен продолжать индексацию старого домена. А 301 редирект говорит, что переход постоянный и что Google должен индексировать новый домен. Googlebot не станет рассматривать новый сайт в качестве дублированного контента – он будет относиться к нему как к перемещенному контенту . А это именно то, что нужно при смене доменных имен.


    Итак, рекомендован 301-редирект.

    Другой совет, который поступил ко мне от Google на основании моего недавнего запроса – почитать следующие блог-постинги:

  • Установка преимущественного домена
  • Изменение доменов
  • Мой URL изменен, как можно заставить Google проиндексировать мой новый сайт?
  • Советы SEO: канонизация URL
  • Советы SEO: обсуждение 302-редиректов
  • Переход на новый веб-хостинг

    Так что будьте осторожны при перемещении доменных имен. 301 – это наиболее безопасный способ, хотя и на него может потребоваться несколько месяцев.

    Обсуждение на High Rankings


    Yahoo! запустил OneSearch для мобильного поиска

    Недавно Yahoo! запустил OneSearch – загружаемое приложение для вашего мобильного телефона, которое поможет вам искать быстрее с помощью мобильного устройства.

    Блог Yahoo Search предоставляет примеры работы приложения. В настоящее время оно поддерживается небольшим количеством моделей телефонов, список дружественных мобильных устройств доступен здесь. В дополнение к этому, Greg Sterling высказал свои соображения на Search Engine Land.

    Похоже на то, что сервис поддерживается в нескольких странах, если судить по выпадающему меню «Выберите вашу страну» на странице выбора модели телефона.

    Yahoo! добавляет, что они ограничивают количество человек, которые могут загрузить приложение:

    Примечание: Вследствие повышенного спроса на наш замечательный Yahoo! Go 2.0 Beta, вам придется ждать от одной до двух недель, чтобы загрузить его (это зависит от модели вашего телефона). Зарегистрируйтесь для получения бета-версии сейчас – чем быстрее вы это сделаете, тем быстрее вы получите приложение!


    Обсуждение на Cre8asite Forums и WebmasterWorld.

    Как работают поисковые роботы?

    Я всегда был неравнодушен к паукам. Не к тем, что ползают по стенам, но к тем виртуальным созданиям, которые прочесывают Веб в поисках новых документов для индексирования и загрузки. Они вполне предсказуемы, но в то же время могут удивить вас тогда, когда вы меньше всего этого ожидаете. Каким образом они находят ту или иную страницу, или делают то-то и то-то? Многие вебмастера в недоумении почесывают репы, пытаясь понять действия пауков. На WebmasterWorld была начата тема, посвященная рассмотрению новых вопросов о различных характеристиках кроулинговой технологии поисковых систем, о том, как работает эта технология, и какие основополагающие принципы лежат в основе обнаружения страницы и принятия решения о листинге этой страницы в результатах поисковых запросов.

    Так как же работают поисковые роботы, и из чего они состоят?

  • Спайдер: автоматическая программа наподобие браузера, которая загружает веб-страницы
  • Кроулер: путешествующий по сети спайдер, который автоматически следует по ссылкам, обнаруженным на странице
  • Индексер: объединенная программа, которая анализирует страницы, загружаемые спайдером
  • База данных: хранилище загруженных и проанализированных страниц
  • Машина поисковых результатов: получает результаты из базы данных

    Pageoneresults идет дальше, и в своей ветке рассматривает новые вопросы о поисковых роботах – для тех, кто еще недостаточно знаком с ними.

  • 1. Принимают ли роботы куки?
  • 2. Происходит, если мой сайт пытается повесить куку?
  • 3. Выполняют ли роботы функции JavaScript?
  • 4.Могу ли я технически воспрепятствовать роботу в индексации моего сайта?
  • 5.Как роботы интерпретируют мою страницу?
  • 6.В каком порядке роботы индексируют мою страницу? Какие первые шаги предпринимают роботы? Продолжение дискуссии на WebmasterWorld


    Приобретает ли домен вес в SEO на основании одного только возраста?

    Один из основных факторов, которые помогают хорошо позиционироваться по отдельным терминам, особенно в высоко конкурентных и устоявшихся областях, - это возраст вебсайта. Это общее мнение экспертов в области поисковой оптимизации, особенно после апдейтов Google «Bourbon» и «Jagger» в 2005 году. Вполне естественно, что оптимизаторы проводили эксперименты с этим фактором

    В недавней ветке на Cre8asite Forum был задан вопрос:

    Все мы знаем, что Google любит старые домены. Однако должен ли домен при этом быть живым? К примеру, если домен был зарегистрирован в 2000 году, но так и не ожил, будет ли он котироваться выше, чем домен, который был зарегистрирован в 2006 году и активно живет в течение 2 месяцев?


    Ответов было не очень много, нов комментариях проскочило довольно важное напоминание:

    Возраст домена – это всего лишь один из факторов


    А следующий ответ затронул настоящий вопрос, который содержался внутри исходного вопроса: должен ли домен содержать контент и ссылки на него, чтобы приобрести вес?

    Участник под ником Phaithful остерегает:

    Если вы хотите приобрести старый домен, просто для того, чтобы выбраться из «песочницы», то ищите тот, который обладает входящими ссылками и контентом, в течение хотя бы какого-то времени. Это увеличит ваши шансы… однако «покупатель, бди»… некоторые старые домены перепродаются, потому что они были занесены в черные списки, или участвовали в спам-схемах – такие варианты еще хуже, чем совершенно новые домены.


    Многие сходятся на том, что старые домены имеют вес только тогда, когда контент хотя бы частично соответствует тематике.

    Обсуждение на Cre8asite Forums

    Источник: SERoundTable
    Автор: SERoundTable
    Перевод на русский язык: Seva


  • Создание эксклюзивных сайтов, юзибилити анализ и бесплатный анализ под запросы основных поисковых машин
    Контактная информация :
    тел. +7(901) 370-1796

    Написать письмо на e-mail
    icq 415547094  romverрейтинг на mail.ru сайта romverinbox.ru
    © 1997 - 2017 romver.ru

    Полная карта сайта Display Pagerank  
    CMS version 3.6.3 | PTG 0,0379 s.