На прошлой неделе Google внес изменения в свой поисковый алгоритм, сообщил на блоге Мэтт Каттс (Matt Cutts). Корректировки были призваны решить проблему с поисковым спамом, заявленную ранее на официальном блоге Google.
Уже тогда технический инженер Google намекнул на некоторые изменения в
работе поиска, которые повлияют на сайты, копирующие контент с других
ресурсов, а также имеющие низкий уровень оригинального содержания.
В пятницу Мэтт Каттс сообщил своим читателям о том, что было запущено в начале прошлой недели:
Чуть более 2% запросов так или иначе изменятся,
но действительно заметные перемены коснутся менее половины процента
результатов. Общий эффект будет состоять в том, что пользователи с
большей вероятностью увидят сайты, содержащие уникальный контент, чем
сайты, собирающие или копирующие контент с оригиналов.
В пересчете на общее количество поисковых запросов, коих, по последним данным comScore,
только у Google насчитывается 11,7 млрд., 2% - далеко не малое
количество. Однако на ряд вопросов Мэтт Каттс пояснений так и не дал:
как Google определяет уникальность контента, что происходит, если
крупные трастовые ресурсы копируют содержимое с маленьких блогов, и как
поисковик будет ранжировать легальные «зеркала» с сайтов с тем же
контентом?
|