IT Новости

Коммерческие сайты под прицелом Google

На недавней конференции SMXWest, глава по борьбе с поисковым спамом Мэтт Каттссообщил, что к концу этого года Google планирует запустить алгоритм Google Merchant Quality против низкокачественных коммерческих сайтов.

Мэтт предупредил, что владельцы низкокачественных коммерческих сайтов должны быть готовы к возможному понижению в SERP. Это может привести к огромному падению трафика, продаж и доходов этих онлайн-продавцов.

Поскольку формулировка «низкокачественный» весьма расплывчата, мы решили узнать у специалистов:

  • Какие параметры и сигналы о качестве коммерческих сайтов может использовать Google?
  • Какие сайты могут пострадать от введения данного алгоритма?
  • Может ли этот алгоритм серьезно сказаться на выдаче Google в Рунете?

Роман Доброновский, руководитель отдела западных проектов компании Promodo, считает:

Слово «низкокачественный» вполне конкретно для Google и было в своё время очень подробно объяснено в программном посте Амита Сингала - одного из ближайших соратников Мэтта Каттса. Он формулировал позицию Google форме простых на вид вопросов, например: «Доверили бы вы такому сайту номер своей кредитки?». Если не кривить душой, то каждый из нас, бывая в шкуре покупателя, знает ответ на этот и ему подобные вопросы.

Если вынести за скобки самоочевидные вещи вроде уникального контента (это путеводная звезда в борьбе Google против веб-спама), то можно сформулировать несколько основных сигналов, на которые Google будет опираться:

· Почти наверняка поисковик будет опираться в оценках на данные своего коммерческого сервиса Google Shopping: данные о «заслуживающих доверия» магазинах, информацию о полноте, свежести данных в магазинах и т.д.

· Совершенно очевидно, что будут учитываться пользовательские рейтинги, количество отзывов, особенно для локальных магазинов, имеющих уже в готовом виде подобные данные в рамках программы «Google Places for Business».

· Наверняка будут задействованы сильные пользовательские сигналы, завязанные на простоту и удобство пользования сайтом.

Возможно, не все эти вещи будут реализованы сходу, но основные контуры будущей системы, в принципе, ясны.

Олег Саламаха, аналитик в агентстве интернет-маркетинга Netpeak, разделяет мнение Романа о базовых показателях качества коммерческих сайтов:

Можно допустить, что для буржуйнета в качестве основных будут использоваться данные из Google Shopping, а для магазинов, не принимающих участия в данной программе, - накопленные пользовательские факторы и патерны поведения, с помощью которых поисковая система может оценить качество.

Кроме того, думаю, будут влиять такие метрики как:

    • Известность магазина;
    • Отзывы (например, из Google карт);
    • Наличие магазина в офлайне;
    • Активности пользователей - комментариев, оценок товаров и т.д.;
    • Количество повторных транзакций;
    • Отмены транзакций и т.д.
Главное, чего хочет добиться Google - убрать из выдачи «псевдомагазины» и десятки тысяч аффилиатов, которые не несут ценности для конечного покупателя. В группе риска также окажутся те магазины, коммерческие метрики которых гораздо ниже, чем у конкурентов.

Несомненно, данный алгоритм будет внедрен и в Рунете, возможно, не одновременно с буржуйнетом и будет использоваться меньше метрик, но запуск данного алгоритма значительно улучшит коммерческую выдачу.

30.03.13 // Источник: SeoNews - Поисковые системы


Еще новости