Press "Enter" to skip to content

Комплексный подход к Интернет-маркетингу

Противоположные мнения о поисковой оптимизации одинаково ошибочны. Будет неправильным считать, что бесконтрольное увеличение количества ключевых слов в тексте и проведение неких «специальных» манипуляций со ссылками гарантируют попадание на первые места ведущих поисковых машин. Равно не корректным является утверждение, что даже очень содержательные и постоянно обновляемые сайты не нуждаются ни в каких оптимизационных усилиях.


История отношений между поисковыми системами и специалистами по оптимизации — это история непрерывных состязаний. Эта борьба основана на том, что алгоритмы определения релевантности документов никогда не будут обнародованы самими поисковиками, поскольку это моментально повлечет за собой лавину спекуляций со стороны оптимизаторов.

В свою очередь, оптимизаторские ухищрения играют положительную роль для прогресса поисковых систем, так как заставляют их разработчиков постоянно совершенствовать алгоритм и предотвращать новые возможные спекулятивные действия по искусственному завышению ранга страницы. Сами же оптимизаторы эту «гонку вооружений» проигрывают в подавляющем большинстве случаев, длительное время продолжая эксплуатировать ту или иную некорректную методику оптимизации, тогда как сами поисковики уже давно эту методику обезвредили.

Выбор ключевых слов, по которым будет оптимизироваться страница. В настоящее время основная задача, которую необходимо решать на первом этапе оптимизации — это выбор между популярностью поискового запроса и его конкурентностью. Иными словами, успех выбора ключевого слова лежит в нахождении компромисса между тем, как много пользователей поисковых машин ищут данное ключевое слово, и тем, насколько сложно будет достигнуть первых позиций по этому ключевому слову в поисковых машинах. Программные решения на данном этапе представлены довольно широко как самими поисковиками (Google AdWords Keyword Tool, Overture Keyword or Tool), так и самостоятельными коммерческими сервисами (KeywordDiscovery, Wordtracker, WebCEO Keywords). Качество предоставляемых кейворд-сервисами данных будет зависеть от мощности источника наполнения базы ключевых слов, которая, в свою очередь, зависит от популярности поисковых машин и объема предоставляемых ими данных, а также математической модели, с помощью которой вычисляются параметры ключевых слов. Так, в инструменте WebCEO Keywords используется серия мультипликаторов, весовых коэффициентов и индексов, с помощью которых, на основе опосредованных данных достигается высокая степень объективности при определении ценности ключевых слов. Инструмент Wordtracker Keywords программы Webposition основан на ином решении — здесь лидер кейворд-сервиса Wordtracker интегрирован в программу.

Оптимизация кода интернет-страницы. Во всех программных решениях для оптимизации применяется единый принцип — программа сканирует код страницы и выдает данные о значениях определенного числа настраничных параметров.

В более совершенных программах также предусматривается выдача советов по улучшению страницы. Принципиальные различия между программами для оптимизации кроются в критериях, по которым определяется качество анализируемой страницы. В большинстве случаев программы-оптимизаторы просто сравнивают исследуемую страницу с лидерами по данному поисковому запросу.

Использовать лидеров в качестве ориентиров — первое, что приходит на ум при размышлениях об автоматизации оптимизаторской работы. Однако, при всей правильности подхода, опыт показывает, что построенная по такому принципу программа очень быстро исчерпывает свои возможности. Противоречие здесь кроется в том, что буквально для каждого ключевого слова, анализируемые параметры отличаются, порою, на порядок. Весьма сомнительно, чтобы поисковая машина для каждого отдельного ключевого слова устанавливала бы свои параметры релевантности. Очевидно, что алгоритм определения релевантности у поисковика одни, различаются отдельные функции алгоритма, которые, однако, в стандартной формуле выдают приблизительно одно и то же значение релевантности для первого места, второго и так далее.

Также необходимо отметить, что программа, выдающая таблицу для сравнения с лидерами, никогда не будет охватывать хотя бы большую половину всех, используемых поисковиками, параметров. Непонимание современных принципов работы поисковых алгоритмов приводит к таким несуразным явлениям, как отчеты «Топ 10», в которых на многих десятках страниц подробно анализируется вес ключевого слова в комментариях и мета-тэгах, тогда как поисковые машины не только не проводят такой анализ, но полностью игнорируют данные участки веб-страниц. В результате, пользователь тратит большое количество времени и сил на то, чтобы его страницы были похожи на лидеров, а отдача от этих усилий — минимальная.

Поэтому инструмент, результатом работы которого является сравнение анализируемой страницы с лидерами, часто будет малоэффективным и всегда — противоречивым.

Более прогрессивным решением является программа Webposition PageCritic, в отчете которой, помимо все того же сравнения с лидерами, размещаются некие общеоптимизаторские советы, обновляемые в зависимости от усердия разработчиков программы. Безусловно, это шаг вперед, так как выдаваемая информация содержит достаточно много полезных советов по оптимизации, которая непременно пригодится пользователю, обладающему хотя бы минимальными способностями оптимизатора. Однако выдаваемые советы не отличаются разнообразием. И уж совсем остается не выясненной проблема качества источников информации. Часто в отчетах Webposition PageCritic приходилось встречать целые отрывки из форумов и оптимизаторских рассылок. К сожалению, объективность таких данных оставляет желать лучшего.

Наконец, принципиально иное решение для программы-оптимизатора — эмуляция поискового алгоритма, основанная на Базе Знаний, в соответствии с параметрами которой выдаются определенные советы для оптимизируемой страницы.

Данный подход, реализуемый в Web CEO Optimization, является гораздо совершенным, хотя и несравнимо более трудоемким, так как требует проведения постоянных специальных исследований и мониторинга работы алгоритмов поисковых машин.

Технология эмуляции поисковых алгоритмов, в противовес технологии «Выбранные топ 10 результатов», является более прогрессивным решением в деле автоматизации оптимизаторской работы, хотя и наиболее подверженной критике. Наиболее слабым местом данного подхода является то, что над совершенствованием поискового алгоритма трудятся целые коллективы, в которых отдельные группы могут разрабатывать весьма тонкие и специфичные вопросы процесса определения релевантности документов, тогда как возможности разработчиков оптимизаторских программ всегда будут ограниченными, а знания о принципах работы поисковиков — опосредованными. Тем не менее, данный подход, бесспорно, является наиболее объективным, к тому же, он не исключает использование сравнений с лидерами, как вспомогательного метода.

Дальнейшее развитие программных решений для оптимизации должно основываться на предоставлении наиболее объективных детальных и последовательных рекомендаций, основанных на анализе алгоритмов поисковых машин, а так же на выдаче исчерпывающих данных по как можно большему количеству настраничных и внестраничных параметров.

Регистрация страниц в поисковых системах. С этапом регистрации связано наибольшее количество оптимизаторских домыслов. Долгое время существовало ошибочное мнение, что регистрация в как можно большем количестве поисковиков неким мистическим образом положительно сказывается на позициях страниц, и я является неотъемлемой частью оптимизационного процесса. Скорее всего, этот миф был выдуман самими оптимизаторами с целью как можно большего наполнения списка предлагаемых оптимизаторских услуг. На самом деле, регистрация — это всего лишь процедура добавления адреса страницы в список страниц, ожидающих индексации. В настоящее время существует огромное количество платных и бесплатных программ сабмитеров. Их цель- упростить и унифицировать работу по регистрации страниц в поисковых системах.

Анализ позиций в поисковых машинах. Автоматизация сбора сведений о позициях страниц в поисковиках — узкое место оптимизаторской работы. Это связано с запретом поисковыми системами автоматических запросов. Решение данного затруднения заключается в разработке такого поведения программы, которое бы максимально соответствовало поведению обычного пользователя поисковой машины.

В той или иной мере это решение реализовано в ранкинг-плагинах Webposition (увеличение времени между запросами), IBP (эмуляция броузера, удаление cookies), WebCEO (эмуляция работы пользователя, интеграция Google API, всего более 10 настраиваемых параметров).

Эмуляция поведения пользователя — это не компромисс, поскольку задачей программы не является массированная атака множеством запросов на сервера поисковых машин. По скорости и объему собираемых данных программа не должна отличаться от работы обыкновенного пользователя поисковой машины. Польза программы состоит в систематичности мониторинга позиций и возможности отслеживания изменений. Так, программа Advanced Web Ranking и инструмент WebCEO Ranking позволяют сравнивать полученные результаты с предыдущим, первым и лучшим, а также отслеживать историю изменений позиций страницы в конкретных поисковых машинах. Также немаловажным преимуществом программ-ранкеров является математическая обработка полученных данных — выдаваемый общий коэффициент успешности страницы в поисковиках, вычисляемый на основе данных о позициях страницы и весе поисковых машин, так как очевидно, что пятое место в лидирующем поисковике, намного ценнее первого места в непопулярной поисковой машине.

Работа со ссылками. Так как основой существования самого интернет-пространства являются гиперссылки, то этому вопросу разработчики программного обеспечения для оптимизации всегда уделяли повышенное внимание. Так, компания Axandra, производитель уже упоминавшейся программы IBP, ссылочный-менеджмент реализует в отдельном инструменте Arelis. Атрибутами хорошего линкера являются: возможность анализа количества ссылок на исследуемую страницу на разных поисковых машинах и их динамика, возможность анализа количества входящих ссылок у конкурирующих страниц, возможность качественного анализа входящих ссылок.

Таким образом, в процессе оптимизации интернет-ресурсов для их успешного продвижения в поисковых системах возможно использование программного обеспечения, которое, однако, носит вспомогательный характер. При этом на каждом этапе могут применяться отдельные инструменты единого интегрированного программного пакета для оптимизации, например, Web CEO.

Be First to Comment

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *