Сравнение методов продвижения сайтов

В данной статье рассмотрим анализ и сравнение различных методов продвижения сайтов в поисковые системы

Оптимизация Контекстная реклама
После окончания работ оптимизация долгое время приносит посетителей. После окончания оплаты за рекламу поток посетителей исчезает.
В итоге обходится дешевле рекламы. Постоянные расходы.
Оптимизация сайта — это долгий процесс, который может длиться от нескольких месяцев до года. Контекстная реклама предлагает почти мгновенный результат.
Если услуга не актуальна или компания не успевает выполнять заказы, приостановить поток посетителей на время нельзя, и даже полное удаление страниц из поисковика может занять большое время. Как только реклама не нужна, ее можно мгновенно остановить.
Не может гарантировать место в результатах поиска, но может увеличить поток посетителей или число продаж. Результат в системе с оплатой за клики гарантирован. Если нет результата, деньги не расходуются. При оплате за показы никакой гарантии результата нет.
Требует высочайшей квалификации от исполнителя. Требует от исполнителя усидчивости и понимания интересов пользователей.

Резюмируя, можно порекомендовать использовать контекстную рекламу:

  • для быстрого продвижения нового товара;
  • для привлечения посетителей в разделы, с которыми не справилась оптимизация;
  • при желании работать с поисковиком самостоятельно.

Оптимизация, соответственно, необходима для достижения долгосрочного эффекта и получения постоянного потока посетителей.

Допустимые и порицаемые методы.

К сожалению, поисковые системы не декларируют точный список методов оптимизации, которые они рассматривают как спам, определяя лишь его суть: попытки обмануть пользователя поисковика. В большинстве случаев спамом считается клоакинг (cloaking, маскировка страниц, выдача поисковому роботу одного содержания, а пользователю другого), невидимый или слабо видимый текст на странице, редирект (redirect, автоматическое перенаправление с найденной страницы на другую), обмен ссылками для увеличения авторитетности страниц сайта. Не все поисковые системы обнаруживают это автоматически, и не все рассматривают подобные методы как спам. Например, Апорт не будет штрафовать сайт, если его сотрудники сочтут, что клоакинг использовался для продвижения по запросам, соответствующим содержанию сайта. Тем не менее, подобных методов следует избегать.

Исследование поисковых систем.

Чтобы успешно продвигать сайт в поисковых системах, необходимо понимать, как они работают. Алгоритмы поисковиков тщательно скрываются их владельцами. Откуда же можно брать информацию о том, как функционирует поисковик?

Поисковые системы возникли не спонтанно, а на основе больших наработок в области поиска информации (дисциплина «Information Retrieval»). Поэтому большинство базовых алгоритмов опубликовано в научных работах, и поисковые системы используют их с небольшими вариациями в своих программах. Сотрудники поисковиков нередко рассказывают о деталях алгоритмов в интервью или на специализированных форумах. Специалисты по продвижению сайта, общаясь на форумах, дают много полезных советов.

Но чтение форумов и научных статей — не единственный метод. Поисковики можно исследовать и экспериментировать с ними. Самый простой способ — изучение кода страниц, которые попадают в верхние 10 результатов поиска. Что у них общего? Как эта страница не по теме смогла пробиться наверх? Почему была выдана именно эта страница сайта? Найденные ответы прояснят картину и приоткроют детали используемого алгоритма. Новички иногда пытаются отыскать магический процент ключевых слов в тексте или «правильную» длину заголовка, усредняя данные страниц, стоящих на первых местах. Но полученные числа напоминают не философский камень, а орудие пролетариата, булыжник. Дело в том, что все факторы ранжирования (а их десятки) используются во взаимосвязи, и потому изучение одного из них без учета остальных не дает никакой полезной информации. Применение методов многомерного статистического анализа может облегчить задачу, но это тема отдельного большого рассказа.

Иногда прояснить картину может эксперимент. Создав десяток страниц с разной плотностью ключевых слов и расположив их на новых только что созданных доменах (чтобы исключить влияние посторонних факторов), в результатах поиска можно увидеть, какая из страниц окажется выше по выбранному запросу. Казалось бы, волшебный ключ найден, но это не так. Кто сказал, что оптимальная плотность ключевых слов одинакова для разных запросов, для страниц разной длины? А поставить эксперименты с учетом всех факторов в разумные сроки невозможно.

Приходится снова возвращаться к исследованиям. Я дам пару рекомендаций по раскрытию алгоритмов. Во первых, изучайте работу конкретного алгоритма, а не ищите всю «формулу релевантности» сразу. Во-вторых, исследуйте такие примеры запросов и соответствующих им страниц, где изучаемый алгоритм проявляется в максимально чистом виде. Например, вас интересует влияние веса сайта по алгоритму PageRank на поиск. Как исключить остальные факторы? Найдите страницы с очень похожим текстом (полностью дублирующие нельзя, чтобы Google не исключил одну из них из поиска). Выберите из текста такое ключевое слово, которое было бы одинаково оформлено в обоих вариантах, содержалось в одних и тех же элементах страниц (заголовок, текст, мета-теги). Слово (или фраза) должно быть достаточно редким, чтобы не пришлось искать страницы среди миллионов других, но при этом достаточно популярным, чтобы в результатах не были выданы только эти две страницы. И т. д. Задайте запрос и сравните позиции в результатах поиска. Чем ближе они окажутся, тем меньше влияние PageRank по данному запросу. Повторите подобный поиск с десятком других пар страниц, чтобы исключить случайные факторы. Сравнивая полученные результаты, обычно можно сделать выводы о том, насколько важен тот или иной фактор и в каких случаях он применяется.

Самое главное, не забывайте думать. Поисковики применяют те или иные факторы не для красоты формулы, а чтобы результаты поиска были лучше. Эффективность поиска принято оценивать по двум основным критериям: полноте и точности. Чем больше процент релевантных (соответствующих запросу) документов среди всех найденных, тем выше точность. Чем больше процент числа найденных документов среди всех документов, что хранятся в базе поисковика, тем лучше полнота. Конкретную реализацию алгоритма оценивают еще по ресурсоемкость поиска, как с точки зрения объема хранимых данных, так и с точки зрения затрат машинного времени. Только если обнаруженный фактор ранжирования или его детали могут улучшить эти показатели, не вызвав резкого увеличения потребности в ресурсах, они правдоподобны.

Итак, методы изучения алгоритмов поисковиков сводятся к следующему:

  • чтение научных статей об алгоритмах поиска и специализированных форумов;
  • изучение страниц из верхушки результатов поиска;
  • исследование конкретного алгоритма в максимально чистом виде;
  • применение статистического анализа;
  • проверка обнаруженных зависимостей на улучшение полноты, точности или снижение ресурсоемкости.

Механизмы работы поисковых систем следующие:

Основная задача любой поисковой системы – дать пользователю ответ на его запрос. Ответ поисковой системы в сети Интернет должен быть актуальным и информативным.

1.Первая задача поисковых систем – сбор информации или «индексация» сайтов. Для этого сначала поисковые системы формируют свои базы знаний или так называемый «индекс» – роботы поисковой системы ходят по сайтам, забирают тексты и картинки, и, сформировав это в удобный для использования вид, складывают в свои архивы. Одновременно страницы и сайты анализируются на предмет морфологии, текстов, тематики и положении в сети Интернет относительно других сайтов. Конкретная работа роботов строится на алгоритмах, созданных совместной работой лингвистов, программистов и аналитиков. Из-за того, что объем информации в сети Интернет огромен (по данным поисковой системы Яндекс, ими проиндексировано 5 тысяч 610 Гб информации), сбор и хранение данных требует огромных мощностей – высокопроизводительных серверов с большой памятью и сильными процессорами.

2.Следующая задача поисковых систем – определение тематики информации (определение тематических групп, рубрицирование сайтов по теме их текстов). Делается это частично вручную, например, у многих поисковых систем существуют собственные каталоги сайтов, когда опытный редактор точно соотносит некий ресурс конкретной рубрике в огромном списке сайтов. Для определения важности ресурса в сети создателями поисковых систем были придуманы коэффициенты и методы их расчета, основанные на учете внешних ссылок на сайты. Это тИЦ (тематический индекс цитирования) у Яндекса, Page Rank у Google, коэффициент популярности у Рамблера. Эти данные даже частично показываются пользователям, но на самом деле расчетов гораздо больше. На этом подготовительная стадия заканчивается.

3.Основная задача поисковых систем – поиск и вывод ответов на запросы пользователей. Эта функция есть поиск по огромному массиву индекса с учетом неких заложенных алгоритмов релевантности и дальнейшего ранжирования результатов. Эта информация в удобном виде преподносится пользователям – показываются сниппеты (выдержки из текста), жирным выделяются запрошенные слова.

4.Еще поисковые системы анализируют реакцию пользователя на информацию, выданную поисковой системой. У поисковой системы Google есть панель-бар (надстройка к браузеру), с помощью которой пользователь может высказать свое мнение об отношении к тому сайту, на который его отправила поисковая система.  Так же многие российские поисковые системы учитывают как и куда пользователи кликают из результатов поиска. Точной информации о том, как что учитывается нет, но понятно, что чем меньше на сайт кликают по сравнению с другими сайтами, тем менее он релевантен запросам пользователей.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *