Основы SEO продвижения и анализа
Оглавление:
С чего стоит начать (выбор движка и хостинга)
Формирование семантического ядра. Инструменты для русских и
английских сайтов.
- погрешности
- перекрестная проверка
- своевременность поиска кеев для семантического ядра
Инструменты для оценки количества трафика
Учет - всему голова. Статистика посещаемости
Статистика по позициям
Основные опасности
Оценка внешних факторов сайта
Легенды о ПР
Подведение итогов
В этой статье я хочу рассмотреть наиболее важные и неоднозначные моменты в
вопросах продвижения своего (или чужого) сайта. Будут затронуты технические,
аналитические, статистические и прочие моменты, которые могут повлиять на успех
вашего мероприятия. Статья может пригодиться представителям компаний,
оптимизаторам, арбитражникам трафика и просто любознательным людям.
С чего стоит начать
Если у вас еще нет работающего сайта, начать стоит с выбора движка и хостинга.
Именно так, и не иначе. Неопытный читатель может быть сбит с толку определением
«движок», но ничего сложного в нем нет. Речь идет от CMS – Content Managment
System. Говоря еще более просто – о системе управления содержимым сайта, которая
позволяет без труда изменять содержимое страниц, дизайн страниц, проводить
опросы и голосования, давать посетителям сайта возможность оставлять комментарии
и т.д. Если вы планируете делать много сайтов по 5-10 статичных страниц, никак
не реагирующих на действия посетителей, то можете не особо думать о движке, это
можно сделать вручную без особых проблем. В наше время не обязательно писать
HTML-код в «блокноте». Если же вы хотите делать большие сайты (30 и более
страниц), то я настоятельно рекомендую использовать ту или иную систему
управления. В таком случае вам не нужно владеть HTML даже на минимальном уровне.
Многие движки по интерфейсу похожи на Microsoft Word, и в них так же легко (как
и в ворде) форматируется текст, вставляются картинки, таблицы, ссылки и т.п.
«Почему выбору движка сайта и хостинга стоит уделить особое внимание?», спросит
любознательный читатель. Все очень просто – это – техническая основа вашего
успеха. Без этого шага все остальные шаги могут не принести должного эффекта.
Вкратце обрисую основные проблемные зоны, которые помогут вам оценить
возможности движка и хостинга с точки зрения оптимизатора.
Движок
Первое, и самое важное (на мой взгляд) – это возможность использовать т.н. ЧПУ (человеко-понятный
урл). Такие урлы нравятся не только людям, но и поисковикам.
Вот два варианта урлов
1) /index.php?act=show&cat=music&sort=album&songer=pink&year=2001&track=7
2) /pink/2001/7
Оба урла абстрактные, они приведены для иллюстрации того, о чем я говорю.
Отвлечемся от понятности для человека и подумаем о поисковиках. Первый вариант
урла может доставить вам немало хлопот. Хотя сейчас уже нет таких проблем как
несколько лет назад с параметрами в адресной строке, на длинных строках с кучей
параметров боты могут «спотыкаться». А это грозит нам не полной индексацией
ресурса. Что, в свою очередь, грозит нам потерей трафика. Лучше иметь урл вида
/7453.php, чем урл первого типа.
Поэтому выбирая систему управления – уделите внимание тому, какие урлы она
генерирует. Многие системы управления уже имеют встроенные модификаторы урлов, в
которых вы можете выбрать, как будет выглядеть адрес вашей страницы.
С урлами разобрались, идем дальше. Обязательно уделите внимание такому моменту,
как возможность указания уникального заголовка для каждой страницы. Также не
помешает возможность задавать индивидуально мета-теги keywords и description.
Уникальные тайтлы позволят вам снизить риск попадания в supplemental results.
Кроме того – тайтл – один из важнейших внутренних факторов оптимизации. А
description в некоторых случаях участвует в формировании сниппетов (описание
сайта в результатах поиска, например в Google или Яндексе).
Обязательно изучите отзывы о выбранном движке. Если регулярно попадаются
комментарии о том, что движок сильно тормозит при хорошей нагрузке – лучше
поищите другой движок, благо сейчас море и платных, и бесплатных систем
управления сайтами. Будет очень неплохо, если движок уже содержит (или позволяет
подключить) модуль статистики. Одно из главных правил оптимизатора – статистики
много не бывает. Некоторые выводы вообще можно получить только на основе большой
выборки.
Ну что, с движком основные моменты разобрали, переходим к хостингу.
Хостинг.
После выбора движка займемся выбором хостинга. Именно так, а не наоборот. Проще
и правильнее искать хостинг под движок, а не наоборот. Не спешите отдавать свои
деньги русским хостерам. Сначала подумайте о том, с какой страны вы хотите
получить трафик на ваш сайт. Общее правило такое – если вы хотите трафик с
Германии – берите немецкий хостинг, если с США – американский. Во первых в общем
случае это будет значить более быстрый отклик сайта для жителя этой страны, а во
вторых это может повлиять на поисковую выдачу.
Возьмем два абсолютно одинаковых сайта, с абсолютно одинаковым весом
(внутренними и внешними факторами). Один хостится в России, второй – в Германии.
При прочих равных условиях второй сайт будет стоять в google.de выше первого.
Это очень маленький фактор, но он зачастую помогает поисковикам определить
«принадлежность» сайта к той или иной стране.
Со скоростью загрузки и региональной принадлежностью разобрались, рассмотрим
следующий момент – аптаймы (и даунтаймы). Аптайм – это время работоспособности
сайта. Допустим 1 день равен 100% аптайму. Тогда час «недоступности» сайта будет
равен примерно 4% даунтайма. «Чем опасен даунтайм?», спросите вы. Поясняю. Мало
того, что вы будете терять самих посетителей (они просто не будут видеть сайт),
вы еще и будете иметь проблемы с индексацией сайта поисковыми роботами, а также
с выпадением страниц из поисковых индексов. Кроме того, работоспособность сайта
(на мой личный взгляд) является одним из факторов ранжирования. По моим
наблюдениям сайт, который доступен всегда, будет стоять выше сайта, который
регулярно не доступен (при прочих равных условиях)
Иногда бывает так, что ваш хост доступен, но SQL сервер не работает. Это грозит
не меньшими проблемами, т.к. в поисковый индекс может попасть куча одинаковых
страниц, не содержащих ничего кроме общего шаблона. А это грозит «склейкой» всех
страниц и выпадением из поискового индекса.
Таким образом приходим к тому, что перед покупкой хостинга нам в обязательном
порядке стоит поискать отзывы на форумах о том, как этот хостинг работает.
Частенько бывают отзывы именно о падающих SQL, а не всём хосте.
Также замечу, что лучше сразу переплатить несколько долларов, но не мучаться
потом с переездом на новый хост (что также грозит потерей трафика и позиций на
время переезда).
Не обязательно напрямую обращаться к зарубежным хостерам. У многих из них есть
российские реселлеры. Они предлагают практически то же самое, но иногда с ними
работать удобнее. Например из-за возможности оплатить хостинг с помощью Webmoney
или Яндекс.Деньги. Также не стоит упускать из виду то, что они могут оказать
тех. поддержку на русском языке, что иногда очень важно.
О реселлерах тоже стоит прочесть отзывы на форумах. Замечу, что и в рунете, и в
западном интернете много сайтов и форумов конкретно о хостингах, рекомендую их
полистать.
Формирование семантического ядра. Инструменты для русских и английских сайтов.
Второй шаг, который нам стоит сделать – отобрать семантическое ядро для нашего
сайта. Семантическое ядро – это набор слов и фраз, которые люди ищут. Например
вы продаете матрешек, тогда часть вашего семантического ядра будет выглядеть
так:
- Матрешки
- Купить матрешку
- Матрешки в москве
- Продавцы матрешек
- …
Ядро не надо придумывать, для его формирования есть сервисы, которые показывают
те запросы, которые люди ищут в действительности. Вы можете сильно заблуждаться
в своих догадках (относительно нужных вам фраз), для их проверки и существуют
сервисы.
И для российского, и для иностранного трафика есть инструменты анализа
Вот некоторые из них:
Зарубежный трафик
Овертюра
Вордтрекер
Гугль адвордс
Российский трафик
Яндекс.Директ
Рамблер-АдСтат
Пунто
Отдельно стоит выделить оценку с помощью продавцов PPC трафика. Например
Evoplus позволяет определить примерное кол-во трафика в системе,
увидеть его стоимость, и таким образом дополнительно косвенно оценить сложность
того или иного запроса. Кроме Евоплюса есть еще масса продавцов трафика. Не
обязательно его там покупать, но зарегистрироваться для сбора доп. статистики
вполне можно ;)
Не гонитесь за однословными запросами, как правило они очень сложные в плане
вывода в топ поисковиков. Уделите внимание 2-3 словным (и более) запросам. В
общем случае они проще в плане продвижения и выгоднее в плане конвертации в
деньги.
Свои системы продажи контекстной рекламы есть также и у Yahoo и MSN, по ним
также можно косвенно собрать полезные данные. Не ограничивайтесь тем, что я
перечислил, существует очень много различных систем, я описываю самые
фундаментальные и важные. Если у вас есть лишнее время – потратьте его с умом
для своего сайта.
Погрешности
Обратите особое внимание на то, что ни на одном из инструментов статистика не
является абсолютно точной и правдивой. Так, например Овертюра может врать не
только предполагаемые цифры поисков по той или иной фразе, но и падежи и порядок
слов!
А цифры Яндекс.Директа нужно делить на 1.5-2, т.к. это «предполагаемое кол-во
показов объявления Директа», которое отображается не только на первой странице
поиска. Кроме того, Яндекс также иногда врет падежи и порядок слов.
Перекрестная проверка
В обязательном порядке проверьте всё ваше семантическое ядро как минимум тремя
инструментами. Вордтрекер имеет бесплатную ограниченную версию ;)
Это нужно для того, чтобы выявить фразы-паразиты, которых «нет в природе» или
которым не стоит уделять внимание. Мне могут возразить, что так можно упустить
много низкочастотников (запросов, которые ищут не очень часто). Все так, но
задумайтесь, сможет ли новичок осилить 1000+ запросов для своего сайта? Лучше
начать с того, что под силу. И поработав над «среднечастотными» запросами, вы
увидите сами на своем сайте кучу дополнительных низкочастотников. Есть еще
отличный вариант оценки запросов, который будет представлен чуть ниже.
Своевременность поиска ключевых фраз для семантического ядра.
Ну что, уже готовы начать собирать фразы и слова для своего сайта? А я вас опять
немного огорчу. Дело в том, что все сервисы показывают данные не за выбираемый
вами период, а за тот, который они вам позволяют оценить. Поясню – искать данные
по Christmas тематике летом – не самая лучшая идея. Например Вордтрекер хранит
данные за последние три месяца. Это значит, что статистика у нас опять получится
неполноценная. Но слава богу, у нас еще есть кое какие козыри в кармане.
Инструменты для оценки количества трафика
Сервисы типа Адвордса и Вордтрекера были нужны нам совсем не для оценки
количества трафика. Они были нужны нам для формирования семантического ядра.
А вот теперь нам на помощь приходит другая группа инструментов.
Гугль трендс
Алекса
Чужие счетчики и открытые системы статистики
Рассмотрим их по порядку, и начнем с гугль трендс. Что нам может дать этот
инструмент? Возьмем сезонный запрос «christmas». Во первых мы видим динамику
запрашиваемости по месяцам. И если сейчас лето, то мы можем примерно прикинуть,
какой трафик ждать в «сезон». Дальше, мы можем выбрать более точно регион и
период для оценки. Таким образом мы уменьшаем риск ошибки.
Алекса.
Что она может нам дать? Для начала вам нужно отобрать сайты-лидеры в вашей
отрасли, которые точно имеют большую аудиторию. Желательно, чтобы сайты
существовали не менее года, а лучше – от трёх лет и более.
Далее идет кропотливый и нуд(ж)ный анализ. Вбиваем по очереди адреса этих сайтов
и смотрим вкладку «Traffic Details». Она дает нам примерное представление о
сезонности трафика. Там же мы можем увидеть основные страны, с которых сайт
получает посетителей. Алекса тоже врет, но чем больше общей статистики, тем
проще сделать правильный вывод ;)
В принципе от Алексы нам больше ничего не нужно, и переходим к следующему, очень
интересному и полезному этапу.
Чужие счетчики и открытые системы статистики.
Лично я считаю анализ чужих счетчиков и статистики очень приятным и полезным
этапом. Поясню, что это и зачем это. Допустим, вы нашли десяток-другой хороших,
посещаемых сайтов из вашей тематики. И вот теперь начинается самое интересное.
Смотрим на саму страницу и на код страницы, и если видим счетчик – пытаемся
подсмотреть на сервисе, который его предоставляет, а не открыта ли статистика?
Например, популярный в рунете счетчик liveinternet позволяет не закрывать
статистику от посторонних глаз. Например
вот так можно подсмотреть за аудиторией газеты «Из рук в руки». Тут мы увидим и
количество трафика, и ареал, и запросы и еще кучу всего полезного. Разумеется,
можно выискать и сайты по вашей тематике, надо только поискать.
Не обнаружили счетчика? Не беда, есть и другой подход. Сначала пытаемся
определить, на каком хостинге находится сайт. Например с помощью сервиса
whois
Если нам это удалось – идем на сайт хостера и смотрим, что он предлагает своим
покупателям. Частенько хостеры указывают, что на сайте может быть использована
та или иная предустановленная статистика. Если вы видите что-то подобное – идете
на сервер владельца скрипта статистики (гугль вам в помощь) и смотрите, в какую
директорию по умолчанию ставится эта система и как называются файлы.
Если нам не удалось определить хостинг или если хостер ничего не пишет о
статистике – то не стоит отчаиваться, не всё потеряно ;) Идем на какой-нибудь
софтверный сайт, на котором есть описания различных веб-скриптов. Выбираем
категорию «Статистика» и смотрим наиболее популярные серверные системы
статистики. Это нужно нам только для одного – чтобы получить признаки урлов.
Идем на серверы этих скриптов статистик, качаем, смотрим в какие папки они
ставятся по умолчанию и пытаемся подобрать ;)
Ну а там уже смотрим, кто, откуда, в каком числе ходит на сайт, который мы
оцениваем.
Анализ чужой статистики (по нескольким серьезным сайтам из вашей сферы)
позволяет более точно составить для себя картину, которая получилась на
предыдущих шагах. Кстати, и такой анализ тоже врет. JS счетчики могут не
учитывать до трети трафика, а серверные системы могут не понимать, что это не 10
юзеров с разным IP, а один, который с диалапа регулярно заходит на сайт (такие
системы не умеют вешать юзерам кукисы и поэтому могут ошибаться)
Идеальных инструментов для оценки, к сожалению, пока нет. Именно поэтому надо
использовать целый комплекс шагов. Тем самым мы существенно снижаем риск работы
«не в ту сторону».
Учет - всему голова.
Статистика посещаемости.
Я не зря в первой части сказал, что неплохо бы выбрать движок с модулем
статистики. Чем больше вы накапливаете статистики, тем проще работать.
Статистика позволяет вам увидеть кучу отличных запросов, которые вы не найдете
ни в каких сервисах.
По мере накопления статистики вы сможете отбросить не эффективные запросы и
перераспределить силы в сторону более выгодных. Если вы не хотите, чтобы вашей
статистикой поживились конкуренты – поступайте следующим образом:
- закройте внешние счетчики от несанкционированного просмотра (это делается на
сервере, который вам выдает этот счетчик, например на Liveinternet это можно
сделать сразу при регистрации счетчика)
- не ставьте систему статистики в папку «по умолчанию» если это возможно;
закройте директорию с серверной статистикой посредством установки пароля
Статистика по позициям
Просто смотреть, по каким запросам приходят на ваш сайт – это пол дела. Вторая
половина – видеть откуда приходят. Речь о конкретных поисковиках и позициях
сайта по тому или иному запросу. В наши дни существует достаточно много
серверных скриптов и windows-программ для оценки позиционной статистики. Вот
лишь некоторые из них
http://promosite.ru/services/monitoring.php
http://checkposer.com/
http://www.siteposition.ru/
http://semonitor.ru/
Для работы с «белыми» сайтами я предпочитаю использовать программу Semonitor, он
содержит десятки поисковиков, выводит отчеты в txt, xls, csv и т.п. файлы, может
работать с прокси (важная функция) и еще много чего умеет. Кроме того, в пакете
может идти не только анализатор позиций, но и дополнительные полезные программы
(подробнее вы можете почитать на сайте).
Анализатор позиций «семонитора» позволяет отслеживать позиционную динамику
(сохраняется статистика за предыдущие даты), а это помогает нам оценить
результативность и эффективность работы. У семонитора есть только один
существенный минус – на большом количестве запросов с глубоким анализом он
серьезно жрёт системные ресурсы.
Зачем нам нужен анализ с прокси? Все очень просто. Во первых если вы будете
анализировать очень много информации – ваш IP адрес может быть «забанен»
поисковиком, в результате вы не сможете даже в браузере в него зайти. Это первая
причина. Вторая причина в том, что в некоторых поисковиках позиции сайта зависят
от региона, ИЗ которого ищут. Так, если вы зайдете на google.com с русским IP
адресом – вы увидите одни результаты поиска. А если с американским – совсем
другие. Прокси позволяют нам прикинуться жителем любой страны ;)
Оценив позиции и сопоставив их с посещаемостью, можно придти к очень интересным
выводам. Например к тому, что какой-то двухсловных запрос на двадцатом месте
дает вам меньше трафика, чем трехсловный запрос на тридцатом. А это прямая нам
рекомендация – уделить особое внимание этому трёхсловному запросу и поднять его
повыше. Потому что чем выше сайт стоит по тому или иному запросу, тем больше на
него приходит трафика.
Основные опасности (суплементал, песочница)
Если вы будете работать с зарубежным трафиком, то основные опасности, которые
вас подстерегают – это Supplemental Results & Sandbox в гугле.
Именно гугль дает больше всего трафика, и он же имеет самые серьезные фильтры на
«коммерческие» тематики.
Supplemental Results
Итак, что такое суплементал («сопли» в простонародье)? Это результаты из т.н.
«дополнительного» индекса. Значит это примерно следующее – страница
проиндексирована, но в обычном поиске по гуглю она не будет отображаться,
соответственно и трафика с нее не будет.
О причинах попадания страниц в суплементал и о том, как с ним бороться в общем
виде можно почитать в статье Вацлава -
здесь.
О том, как не попасть в суплементал лучше подумать заранее (и это тоже касается
выбора движка, как я уже писал)
Sandbox
Песочница. Именно такое название встречается для группы фильтров,
накладывающихся на молодые сайты. Действие песочницы выражается в том, что сайт
есть в выдаче по интересным запросам, но настолько далеко, что у него нет шансов
получить трафик по этим запросам.
Наиболее сильно песочница выражена в дорогих коммерческих тематиках
(недвижимость, медикаменты, банковская сфера, хостинг, продажа чего-либо)
То, что вы попали в песочницу, не значит что у вас совсем не будет трафика – у
вас просто будет мало трафика.
Выход из песочницы занимает от нескольких месяцев до года. Знаменуется это
явление резким повышением трафика на сайт и существенным ростом позиций по
двух-трех-четырех словным запросам.
Сделать новый сайт под коммерческий трафик и не попасть в песочницу – с родни
чуду. Так что если вы попали в песок – не переживайте, вы можете лишь попытаться
ускорить выход из песка. В общем случае для этого необходим регулярный прирост
контента и ссылок на сайт. Ссылки желательно с хороших, тематических ресурсов, и
сроком размещения не менее 3-4 месяцев. Не стоит сразу покупать 500 ссылок с
PR5, лучше потихоньку проставлять по 3-5 хороших ссылок в неделю, так меньше
шансов загреметь под фильтр на продажные ссылки. Этот фильтр просто на время
обнуляет вес ссылок для вашего сайта. Сам ваш сайт санкций не получает, просто
для него как бы отключается действие новых ссылок.
Пока вы находитесь в песочнице – вы будете получать трафик в основном не с гугля,
а с других поисковиков. С гугля же будет идти низкочастотный трафик (фраза с
кучей слов, грубо говоря)
К сожалению обойти песочницу практически невозможно, во всяком случае у меня нет
100% рецепта, так что к этому надо просто морально подготовиться и не строить
радужных надежд.
Оценка внешних факторов сайта
Ну что, уважаемые читатели, вы уже начали потихоньку меняться статьями, покупать
ссылки, регистрироваться в каталогах? Тогда самое время поговорить об оценке
результатов этой деятельности.
Во многих поисковиках есть технические операторы, служащие для более глубокого
анализа, ниже я перечислю основные из них (и методы их использования)
Проверка проиндексированных страниц на сайте.
Может пригодится, чтобы понять, насколько поисковым ботам нравится наш сайт и
сколько его страниц находится в базе поисковика (чем больше – тем лучше в общем
случае)
Поисковик |
Запрос в строке поиска |
Google |
allinurl:vasya.com/ site:vasya.com |
Yahoo |
site:vasya.com |
MSN |
site:vasya.com |
Yandex |
#url="vasya.com*" |
Aport |
URL=vasya.com |
Rambler |
(вводить в адресной строке, а не в
строке поиска) http://search.rambler.ru/srch?sort=0&filter=vasya.com
|
Проверка внешних ссылок на сайт
Может пригодиться для анализа проделанной вами (или вашим оптимизатором) работы.
Стоит понимать, что ни один поисковик не показывает всех ссылок, которые он
знает на ваш сайт. Поэтому и для анализа ссылок на чужие сайты надо пользоваться
не одним, а несколькими поисковиками
Поисковик |
Запрос в строке поиска |
Google |
link:vasya.com -site:vasya.com |
Yahoo |
linkdomain:vasya.com -site:vasya.com |
MSN |
Функция временно не работает |
Yandex |
#link="vasya.com*" |
Aport |
link:vasya.com |
Rambler |
Функция отсутствует |
Оператор site:vasya.com * -view позволяет вам увидеть все страницы, которые
находятся в доп. индексе (Supplemental results для гугля)
Есть и более хитрые и специфические операторы, но для начала вам вполне хватит и
этих.
Гугль самый хитрый и обычно показывает меньше всего ссылок. Это не значит, что
он знает так мало ссылок, просто он самый хитрый :)
Также кол-во ссылок можно оценить косвенно, то есть банально вбив адрес сайта в
строку поиска (вообще без операторов). Иногда так можно найти много интересного.
Легенды о ПР
Часто можно увидеть утверждение, что достаточно купить пару ссылок с сайта с ПР8
и всё будет супер-пупер. Это далеко не всегда так.
Во первых надо понимать, что тулбарный ПР отличается от текущего. Текущий ПР
«плавает» потоянно, а тулбарный пересчитывается раз в неск. месяцев.
Во вторых есть умельцы, которые с помощью серверного редиректа «клеют» свои
домены к другим, с хорошим ПР. Такому приклеенному пейджранку ноль цена.
В третьих на разных датацентрах (поисковых серверах, грубо говоря) PageRank
может существенно отличаться. Определить его можно например с помощью программы
из пакета «Семонитор», либо воспользоваться одним из онлайн сервисов.
Вот парочка таких сервисов:
http://www.pageranktool.net/
http://livepr.raketforskning.com/
Далее – есть фильтры на исходящие ссылки. Если гугль решил, что ваш сайт продает
ссылки чтобы влиять на поисковики – он обнулит или сильно уменьшит вес исходящих
ссылок с вашего сайта. То же относится и к другим сайтам (с которых вы хотите
купить ссылки). Возможно в одном из следующих материалов я обрисую общую схему
определения зафильтрованности ссылок, но сразу могу предупредить - это серьезный
трудоемкий процесс, далеко не всегда дающий однозначный результат. Кроме того,
гугль сейчас больше оперирует ТрастРанком, а не ПейджРанком, но ТрастРанк мы
толком оценить не можем даже с помощью «ошибающихся» сервисов.
Таким образом выходит, что глядя на ПР при покупке ссылки, вы можете спустить
несколько сот долларов на единственную ссылку, не получив вообще никакого
эффекта.
Никогда не полагайтесь при покупке ссылок только на PR.
Подведение итогов
В этой статье я постарался рассмотреть основные «острые углы», на которые
натыкаются новички (да и не только)
В первую очередь после запуска сайта уделяйте пристальное внимание статистике.
Во вторую очередь, основываясь на статистике, старайтесь найти новые запросы для
вашего семантического ядра
Не надейтесь быстро «проскочить» в выдачу англоязычного гугля, и не
расстраивайтесь, если вам это не удалось сразу.
Делайте интересные ресурсы, и ссылки покупать не придется ;)
Удачи!
|
Партнеры
|