SEO для чайников
Оглавление:
• Что такое SEO, SEA, SEM
• Какие виды сео существуют
• Принципиальные признаки "черного" СЕО
• Этапы развития СЕО
• Разница между СЕО в рунете и в буржунете
- разница в подходе
- разница в специализации и в «сбыте» трафика.
• Инструменты сеошника
- «производственные»
- для анализа
- для управления трафиком
Что такое SEO, SEA, SEM
Человек, далекий от оптимизации и работы с поисковыми системами, посмотрит на
эти аббревиатуры как на что-то из области жаргонизмов, свойственных разным
профессиям. Как например, «мамка» («мать») для обозначения «материнской платы»
компьютера в среде компьютерщиков; как «трамблер» скрывает за собой
«прерыватель-распределитель зажигания» среди автомобилистов и т.п.
На самом деле это не жаргонизмы, а именно аббревиатуры, т.е. сокращения
нескольких связанных между собой слов.
Итак, приступим:
SEO – Search Engine Optimization – Оптимизация под Поисковые Системы. Говоря в
доступной простому человеку форме – СЕО это комплекс работ, позволяющих улучшить
позиции сайта в поисковиках (гугль, яху, яндекс, рамблер и т.п.). Работы бывают
внутренние и внешние.
К внутренним работам можно отнести:
- оптимизацию ссылочной структуры сайта
- оптимизацию текстовой части сайта, работа с тегами выделения текста (жирный,
курсив, заголовки различного приоритета (h1, h2, h3 и т.д.))
- оптимизацию кода (уменьшение вложенности таблиц, расположение «нужного»
контента ближе к началу страницы средствами верстки кода) и т.п.
- работа с изображениями (грамотная обработка alt тегов, позволяющая сайту
занимать неплохие позиции в «поиске по картинкам»)
- работа с мета-тегами (теги title и description, влияющие не только на позицию
сайта, но и на его описание в результатах поиска, т.н. «снипет»)
- убирание сессий из адресов страниц (наличие сессий может сыграть очень дурную
шутку с владельцем сервера, наплодив кучу дублей в базе поисковика)
- закрытие некоторых зон сайта от индексации (для уменьшения нагрузки на сайт,
уменьшения риска попадания в «дополнительный», второстепенный индекс поисковика)
- реализацию кеширования страниц (уменьшение нагрузки, более быстрый отклик
страниц сайта)
К внешним работам относится ни что иное, как размещение ссылок на ваш сайт.
Везде, где только удается их разместить. В каталогах, на новостных серверах (в
статье про вашу фирму не дурно вставить прямую ссылочку на ваш сайт), на досках
объявлений, на форумах (в виде сообщения, в виде подписи пользователя, в виде
указания домашней страницы в профиле пользователя), на блогах (оставляя
комментарий по теме заметки, как правило можно указать и свой сайт) и на других
ресурсах, которые допускают размещение ссылки на ваш сайт. Внешние работы – это
всё, что ведет всего к одной цели – увеличению количества ссылок на ваш сайт.
Это может быть и рассылка пресс-релизов по новостным сайтам.
Некоторые компании увлекаются т.н. «вирусным» маркетингом, размещая на своем
сайте что-то такое, что обычно не имеет отношения к самой фирме, но может
вызвать интерес интернет-сообщества. Какую-нибудь заразительную игру, или мульт,
или даже что-нибудь пошлое или матерное. Иногда таким образом можно получить не
одну сотню ссылок и большое число посетителей.
SEA – Search Engine Advertising – Рекламирование на Поисковых Системах. Никак не
связанная с SEO деятельность. Чтобы было понятнее, о чем идет речь – зайдите на
гугль или яндекс и наберите, например, «купить машину». В основном столбике вы
увидите результаты поиска, а в столбике справа – рекламные объявления. Эти
рекламные объявления и есть ни что иное, как SEA.
Для SEA не обязательно заниматься SEO своего сайта. В данном случае -
посещаемость и прибыльность вашего сайта будет зависеть только от рекламного
бюджета и грамотно составленного объявления. Более того, для SEA вашей фирмы не
обязательно иметь даже сайт. Например, Яндекс уже несколько месяцев позволяет
рекламироваться с «номинальной» страницей, содержащей всего лишь контактную
информацию фирмы. Фирме вообще не обязательно иметь сайт, чтобы заниматься SEA.
SEM – Search Engine Marketing – Маркетинг с включением Поисковых Систем. В
данном случае речь идет о комплексе SEO+SEA.
Это наиболее полный подход, перекрывающий все потребности сайта в трафике,
делающий это наиболее эффективным образом. Так, некоторые запросы можно
«оптимизировать» чтобы находиться в результатах поисковой выдачи, а некоторые –
купить в виде рекламных объявлений. Либо же, например, сайт очень неплохо стоит
по запросу «cars rental» в гугле, но вне зоны видимости в яху. Тогда можно
просто купить в яху рекламных объявлений по данной группе запросов. Таким
образом можно охватить максимальную аудиторию своих покупателей. Только надо
четко помнить, что SEA может лишить вас нескольких тысяч долларов за сутки, не
принеся дохода. Подходите к составлению рекламных объявлений очень тщательно,
выбирайте только те словосочетания, которые могут обернуться прибылью.
Внимательно подходите к указанию ставок за клик по той или иной фразе, чтобы не
переплачивать. Наиболее эффективно (в плане извлечения прибыли) использовать И
SEO И SEA, а не отдельно то или другое.
Какие виды СЕО существуют
Есть несколько точек зрения относительно этого вопроса. Кто-то считает, что нету
«белого» СЕО. Аргументация довольно проста – любая попытка самостоятельного
влияния на поисковую систему – нарушение Лицензии поисковика, поэтому к «белым»
методам относиться не может. Следуя этой философии – «белое» СЕО – это например
когда компания делает что-либо «крутое», в результате чего появляются ссылки на
сайт компании без ее участия. Например компания пожертвовала миллион долларов на
благотворительность, и в результате сотни новостных сайтов об этом напечатали,
указав ссылку на сайт этой компании.
Другая точка зрения, что «белая» оптимизация не позволяет некоторые нарушения,
но позволяет работать с внешними ссылками на сайт.
Например, нельзя печатать белым текстом по белому фону. Нельзя делать главные
заголовки (H1) меньше (или такого же размера) как обычный основной текст на
странице сайта. Нельзя делать жирный текст визуально таким же, как обычный и
т.п.
Это достаточно условное огораживание, т.к. поисковики не предоставляют полного
перечня «запретных» вещей на сайте (и вне его). В общем оптимизаторы этого
класса занимаются самоутешением, полагая и скандируя, что они «белые». Это всё
очень условно, т.к. разделитель «белое/черное» - лишь в их собственной голове.
«Серая» оптимизация – это некоторое нарушение «белых» основ. Например, т.н.
клоакинг (который в некоторых случаях может быть отнесен к «черной»
оптимизации). При клоакинге посетителю выдается одна страница, а поисковику –
другая. Например, поисковику выдается страница с большим количеством жирного
текста, тогда как обычному человеку показывают страницу с нормальным кол-вом
«жирного».
Серая оптимизация, это хождение на грани между «белым» сео и черным. А т.к.
«белое» сео толком не определено, то к серой оптимизации можно приписать
практически всё. Ну а грань могут определить только поисковики, т.к. именно они
накладывают санкции после перехода этой самой грани.
Надо сказать, что есть рад вещей, за которые четко получаешь «пенальти». Многие
считают гранью именно эти вещи.
Принципиальные признаки черного СЕО.
Самое понятное с точки зрения определений.
Под черную оптимизацию однозначно подпадает линк-спаминг. Линк-спаминг – это
размещение ссылок где попало, (вне контекста сайта-донора). Использование
одинакового цвета фона и цвета текста (в результате пользователь текст НЕ видит,
а поисковик – ВИДИТ и может придать сайту больший вес). Использование CSS таким
образом, чтобы визуально обычный и жирный текст не отличались, чтобы заголовки
выглядели как обычный текст. Перенасыщение страницы ключевой фразой или словом и
т.п.
Заниматься черным сео для обычного сайта крайне рискованно. Конкуренты не спят,
и как только ваш сайт займет более или менее приличные позиции, на него
«настучат». И если есть за что вас покарать – будьте уверены, вас покарают
(представители поисковика).
Многие фирмы и оптимизаторы делают «цепочку» из «черных» ресурсов, ведущую в
итоге на конечный, белый сайт. Например, делаются сайты, которые будет не жалко
потерять (не основной сайт компании, а вспомогательные). Эти сайты шпигуются
ключевыми словами, их накачивают ссылками (линк-спаминг), и в результате трафик,
который собирают такие сайты-доноры, перенаправляется на основной сайт.
Таким образом (при грамотном подходе) можно и рыбку съесть, и на…. Ну в общем вы
поняли. Дело в том, что основания для удара по главному сайту со стороны
поисковика в данном случае очень условны. Ведь ваши конкуренты могут создать
сеть «черных» сайтов, направить на вас трафик и попробовать так вас «выбить» из
поисковика, самостоятельно пожаловавшись на «вашу» сеть. Поэтому для таких
вариантов у поисковика действует презумпция невиновности.
Разумеется, к данной реализации нужно подойти с умом. Располагать
сайты-однодневки на том же хосте что и главный сайт – по меньшей мере
неосмотрительно. Указывать одинаковые данные в whois – тоже не самый умный
вариант. Желая собрать «черный» трафик учитесь маскировке.
Этапы развития СЕО
Время появления SEO – это время появления первых поисковиков. Как только
появился первый поисковик, основанный на тех или иных параметрах страниц сайта
(а не ручном отборе модератора), так нашлись люди, раскусившие эти параметры и
воспользовавшиеся ими.
Первым под удар попал тег «keywords». В него запихивали чуть ли не тысячи
«нужных» слов, влияя тем самым на выдачу первых поисковиков с их «дубовыми»
алгоритмами. В итоге алгоритмы стали потихоньку усложняться, и началась одна из
бесконечных войн «меча и орала».
Стало недостаточно иметь текст в теге «кейвордс», появилось ссылочное
ранжирование. Т.е. приоритет начал отдаваться не тем сайтам, на которых есть
просто слово «снегоход», но тем, на которые ссылаются ДРУГИЕ сайты, и не просто
ссылаются, а именно со словом «снегоход» в ссылке.
Несложно догадаться, что в ответ оптимизаторы стали скупать ссылки с таким
словом на других сайтах, повышая тем самым свой вес.
Ладно, думаем себе. Следующим шагом стало введение «авторитетности» ссылок.
Ссылка с сайта Василия Пупкина имела один вес, а с сайта Белого Дома –
совершенно другой. И в результате сотни ссылок со страниц Василиев Пупкиных не
смогли перевесить одной «тяжеловесной». Тяжеловесность – параметр динамический.
Есть «корневые» сайты, у которых их «вес» закреплен вручную. Они ссылаются на
что-то еще, а те сайты ссылаются еще дальше. Таким образом, происходит
естественное распределение веса.
У гугля это т.н. алгоритм Page Rank (относящийся не ко всему сайту, а к
конкретной странице), у яндекса это ТИЦ (относящийся как раз наоборот – ко всему
сайту сразу).
В ответ оптимизаторы начали «прокачивать» свои сети «вспомогательных» сайтов и
покупать ссылки на «весомых» ресурсах. Что привело к фильтрации поисковиками
ссылок с конкретных ресурсов. Ссылка есть, санкций на доноре и на акцепторе нет,
но вес у ссылки – нулевой и толку с нее нет никакого. Оптимизаторы научились
определять и такие, зафильтрованные страницы, не тратя понапрасну «ссылочный»
бюджет.
А поисковики научились достаточно неплохо определять сети сайтов, принадлежащих
тому или иному сайту, и «обнулять» вес ссылок с таких сетей на сайт-акцептор.
В первую очередь обнуление исходящего веса коснулось т.н. «морд», т.е. главных
страниц сайта. Такие страницы имеют (как правило) наибольший вес, и ссылка с
«морды» может стоить иногда тысячи ссылок со внутренних страниц.
В результате оптимизаторы стали использовать не только «морды», но и размещать
тематические статьи со ссылками на свои сайты. Обмен статьями был придуман
достаточно давно, но расцвел именно в эпоху лавинообразного увеличения числа
оптимизаторов и начала строгих санкций со стороны поисковиков (применительно к
«мордам»)
Процесс этот, скорее всего, не имеет конца. На каждый новый щит поисковика
найдется не менее новый меч оптимизаторов.
В связи с появлением алгоритма Phrase rank от гугля - уже высказывались идеи
создать огромное количество «мусорных» страниц, сбивающих прицел с реального
фрейзранка на тот, который выгоден оптимизаторам.
И результат будет очень забавный. В выдаче окажется опять не то, что там должно
быть, а то, что будет диктовать оптимизатор. Но для этого нужно перевесить
«естественный фон» в той или иной теме.
Разница между СЕО в рунете и в буржунете
Разница в подходе.
Российский рынок еще достаточно дикий. Это относится не только к поисковой
оптимизации. В связи с этим и правила игры у нас достаточно дикие. Российские
оптимизаторы только начинают задумываться о специализации и работе с
определенными отраслями.
Разумеется, есть исключения и на российском рынке, уже давно взявшие свои
конкретные ниши и плотно в них работающие. Но в основном все берутся за всё. И
не смотря на большое число оптимизаторов в рунете, такой подход до сих пор
приносит прибыль и оптимизаторам, и заказчикам их услуг. Кроме того, российские
сеошники работают в основном именно как SEO, не уделяя внимания SEA.
Заказчики в основном ничего в этом не понимают, и оптимизатору проще и выгоднее
замкнуть трафик на себе, не делясь с поисковиком бюджетами. Это приводит к тому,
что во первых не всегда сеошнику удается проглотить схваченный кусок, а во
вторых иногда не удается добыть для заказчика прибыль.
Кроме того, некоторые поисковые запросы могут быть сезонными, и просто нет
смысла всерьез их «продвигать». С приходом цивилизованности на рынок SEM
заказчики будут лучше владеть вопросом, и продвижение в интернете уже не будет
ограничиваться «раскруткой» сайта по запросу «стеклопакет». Преимущество будет у
тех игроков, которые смогут обеспечить не просто прибыль, а наибольшую прибыль с
наименьшими затратами. Разумеется цена вхождения на рынок SEM будет только
расти, да и по мере завоевания доброго имени старым игрокам будет всё проще, а
молодым – всё тяжелее. И в итоге произойдет такое же дробление, какое случилось
на западном рынке.
Разница в специализации и в «сбыте» трафика.
Помимо отраслевой специализации, можно представить следующее дробление. Одни
сеошники работают на конкретного «покупателя», нагоняя трафик на ЕГО сайт.
Другие сеошники делают свои СОБСТВЕННЫЕ сайты, размещая на них рекламу того или
иного заказчика. Заказчика в данном случае стоит рассматривать в широком смысле
слова. Так, для кого-то «заказчиком» может выступать гугл-адсенс. Веб-мастер
размещает на своем сайте рекламный модуль адсенса и получает деньги за то, что
посетители сайта нажимают на рекламные объявления.
Если он передумает, он может разместить рекламные объявления другого
рекламодателя, убрав гугл-адсенс. Или повесить рядом нескольких рекламодателей.
Сеошник может делать сети своих сайтов конкретно под какие-то отрасли и сферы.
Для примера можно рассмотреть продажу книг.
Оптимизатор делает блог, посвященный литературе. Он пишет статьи о книгах и их
авторах, и размещает в тексте статей ссылки на партнерские сайты, торгующие
книгами (например Amazon). Тогда, если читатель заинтересовался книгой и купил
ее, перейдя по ссылке, веб-мастер получает свой процент.
Эта схема работы очень распространена в западном интернете. Трудно найти сферу,
в которой бы еще не было сайтов с партнерскими программами. Однако в рунете эта
схема еще не очень распространена, и сайты партнерских программ можно
пересчитать по пальцам. Не говоря уже о сферах, в которых партнерские программы
работают. На мой взгляд именно поэтому большинство оптимизаторов сейчас работает
на конкретного конечного заказчика, и разрыв отношений может быть достаточно
болезненным для обеих сторон.
Тем не менее, западные коллеги по такой (партнерской) схеме работают давно. И
многие – очень успешно. Таким образом, оптимизатор-индивидуалист может
заработать десятки тысяч долларов в месяц, не вставая с домашнего кресла и не
вынимая ног из уютных тапочек.
На западном рынке оптимизаторов-индивидуалистов намного больше, чем
оптимизаторов, работающих на конкретного заказчика. В общем случае это выгоднее
оптимизатору. Оптимизатор – следующий в пищевой цепочке после поисковика. Он
владеет трафиком, и в западном интернете он может выбирать (и выбирает), куда
его подороже и поэффективнее пристроить. И уже заказчики вынуждены повышать
ставки чтобы получить свою долю трафика. В рунете же пока ситуация обратная. Еще
небольшое число заказчиков осознает всю прелесть чистого тематического трафика,
а потому – пока трафика хватает всем. Но вот когда его перестанет хватать, тогда
и появятся партнерские программы и «биржи» трафика типа 7search и т.п. У нас
есть некоторые подобия (например Бегун), но количество рекламодателей и ставки
существенно ниже, чем у западных коллег. Тем не менее, процесс идет, и в итоге
мы придем к модели западного рынка.
Инструменты сеошника
«Производственные» инструменты.
Достаточно ограниченный набор. К ним можно отнести программы (и модификации
систем управления), призванные в автоматическом или полуавтоматическом режиме
делать те или иные действия.
Касательно модов – это в первую очередь автоматическая генерация метатегов,
mod_rewrite (автоматическое изменение урла страниц в вид, более удобный
поисковикам и юзерам), отсечение сессий и т.п.
Сюда можно также отнести генераторы дорвеев («доргены»), «корректоры» плотности
текста и т.н. «спамилки» (программы, служащие для автоматического линк-спаминга).
Также сюда относятся разного рода парсеры. Это программы, добывающие ту или иную
информацию. Например, парсер увертюры позволяет извлечь из последней список
ключевых фраз и увидеть, сколько раз их искали.
Доргены и спамилки стоят на вооружении «черных» оптимизаторов.
Доргены – это программы, генерирующие текст с заданными параметрами по
определенным алгоритмам. В настоящее время эволюция доргенов уже практически
приблизилась к искусственному интеллекту по мудрёности и к кухонному комбайну по
функционалу.
Хороший дорген не только сам напарсит (соберет) ключевые слова и тексты из
разных источников, он еще и картинок надёргает (или нагенерирует сам),
перелинкует сайты в единую сеть по заданному алгоритму, а потом еще и
самостоятельно выгрузит всё это хозяйство на нужный сервер по FTP
Спамилки – это программы, размещающие в автоматическом режиме ссылки на ваш
сайт. Вы загружаете в спамилку базу (например базу, содержащую адреса гостевых
книг), рекламное объявление, после чего курите бамбук, ожидая завершения работ.
Умные спамилки умеют самостоятельно находить прокси (чтобы ваш адрес оставался
анонимным), приостанавливать работу в случае разрыва соединения и т.п. Некоторые
даже умеют самостоятельно вводить коды с картинок и проходить регистрацию на
форумах с активацией по электронной почте. После чего размещают на форуме ваши
ссылки ;)
Парсеры стоят на вооружении и у черных, и у белых оптимизаторов, т.к. позволяют
отобрать те запросы, которые нужны владельцу сайта (т.н. семантическое ядро).
Парсеры могут вытягивать не только список ключевых слов, но и тексты с сайтов
(например с википедии), и картинки, и всё, что угодно.
Во многих доргенах уже есть встроенные парсеры текста с поисковиков. Также есть
парсеры, вытягивающие результаты по поисковому запросу. Например вы задаете в
парсере поиск в гугле по запросу «xanax», указываете глубину поиска, а парсер
вам выдает адреса первых 500 сайтов по данному запросу. Например, если такой
парсер еще и умеет отображать PR – вы сможете достаточно оперативно оценить
конкуренцию по данному запросу.
И парсеры, и доргены, и спамилки бывают двух видов. Для windows и для *nix
систем.
Первые принято называть «десктопными», вторые – серверными. Хотя сервера бывают
не только на *nix системах. Десктопные программы позволяют человеку, не
дружащиму с юниксами-линуксами воспользоваться данным софтом. Также десктопные
программы хороши для людей с безлимитным быстрым Интернетом. Все всегда под
рукой и под контролем. Однако такие программы обычно более требовательны к
ресурсам компьютера.
*nix системы напротив, менее требовательны к «железу», но более требовательны к
навыкам оператора. Кроме того для их использования как правило покупается
дополнительный сервер, который также надо администрировать, и стоимость которого
отнюдь не 4 сольда. Да и хостер должен быть с крепкими нервами, чтобы по первой
жалобе такой сервер не заблокировали без возврата денег.
Инструменты для анализа
Этой группой инструментов пользуются все профессиональные оптимизаторы, и
черные, и белые.
К ним относятся:
- анализаторы позиции сайтов
- анализаторы выдачи поисковиков
- анализаторы ссылок (на конкретный сайт или группу сайтов)
- анализаторы текстов
- бидчекеры (анализаторы стоимости запроса, например в PPC системах)
- анализаторы трафика на самом сайте
- внешние анализаторы трафика (т.н. счетчики)
- анализаторы доступности сайта
Анализаторы выдачи и позиций – как правило единый комплекс. Они нужны для того,
чтобы понять общую конкуренцию по тому или иному запросу и увидеть, где по этому
запросу находится ваш сайт. Анализаторы ссылок нужны также для оценки
конкуренции по тому или иному запросу. Рассматривать анализаторы ссылок стоит в
комплексе с анализаторами выдачи и позиций.
В свое время был очень популярен продукт «Rankmeter». Он состоял из 2х частей –
серверной и десктопной. Серверная стояла на сервере разработчика, десктопная
ставилась на компьютер покупателю. В результате анализ проходил очень быстро,
вне зависимости от скорости Интернета покупателя. Весь анализ шел на сервере
разработчика, после чего отправлялся отчет в десктопную часть. Таким образом
покупатель не думал о трафике и возможном бане его адреса со стороны
поисковиков.
К сожалению данный сервис давно умер, не выдержав конкуренции. В настоящее время
абсолютным лидером среди российских оптимизаторов является программа SEO
Administrator, предоставляющая огромные возможности для анализа за скромные
деньги. Она содержит и анализатор текстов, и анализатор входящих ссылок, и много
чего еще. К сожалению у программы есть один недостаток, который не дает «черным»
в полной мере порадоваться этому продукту. Она с трудом переваривает большие
объемы данных. Анализ нескольких тысяч урлов (или запросов) может повесить
программу насмерть, еще и убив (испортив) файл с отчетом. Тем не менее для
работы «белых» сеошников эта программа очень удобна и функциональна.
Бидчекеры – это один из видов парсеров. С их помощью вы можете оценить стоимость
той или иной фразы или целой группы фраз. Используются в основном черными
сеошниками.
Анализаторы трафика – ни что иное как системы статистики. Самые известные из них
– webalizer, cnstats, wusage wstat. Эти системы позволяют определить сколько, по
каким запросам, когда, с каких поисковиков пришло на ваш сайт посетителей. Как
долго они пробыли на сайте, какие страницы посмотрели, с какой страницы ушли и
многое другое.
Анализаторы могут быть как «внутренними», так и внешними. Внутренние анализаторы
ставятся туда же, где стоит сайт, либо входят в ядро системы управления сайтом.
Внешние представляют из себя счетчики, встраиваемые в код сайта. К сожалению на
таких счетчиках может теряться до трети статистики. Для полной картины лучше
совмещать внешние и встроенные системы статистики
Анализаторы доступности сайта
Анализаторы доступности сайта служат, как понятно из названия, для контроля за
«живостью» вашего сайта. Например, вы считаете, что ваш сайт просто обязан быть
доступен 24 часа в сутки. И в случае, когда сайт недоступен, вы хотите
моментально об этом знать, чтобы решить проблему. Для этого существует масса
сервисов. Эти сервисы периодически проверяют доступность вашего сайта и время
отклика, и в случае неполадок могут известить вас как на электронную почту, так
и например с помощью СМС на сотовый телефон. Такими сервисами пользуются и
черные, и белые сеошники. Единственное, на что стоит обратить внимание – на то
что сервисы могут добираться до сайта по разным маршрутам. И может так
случиться, что маршрут «проверяльщика» будет оборван, а вы будете в это же время
прекрасно видеть ваш сайт. Для избежания ложных тревог можно дублировать такие
сервисы (например подключиться к европейскому и американскому сервисам)
Инструменты для управления трафиком
В первую очередь эта группа инструментов используется черными сеошниками, хотя
TDS может использоваться и в работе белых оптимизаторов.
В эту группу инструментов входят 2 основных
- Система распределения трафика, т.н. TDS
- мультифид
Система распределения трафика (TDS) – штука очень полезная. Переоценить пользу TDS просто невозможно.
Поясню для чего она нужна. Допустим у вас есть сотня дорвеев, и число дорвеев
постоянно растет.
Можно сделать редирект с дорвеев прямо на фид. И мучаться в случае необходимости
смены редиректа на всех дорвеях. А можно сделать редирект на TDS, и менять
ключевую фразу одним щелчком мыши. Попутно распределяя трафик по
гео-принадлежности, к примеру.
Кроме того TDS позволяет определить реальное число переходов с дорвеев,
позволяет определить, какие именно дорвеи вылезли, по каким запросам и т.п.
Мультифид – это специальный скрипт, позволяющий объединить на одной странице
рекламную выдачу с разных PPC систем.
Дело в том, что у разных PPC могут быть разные рекламодатели на одну и ту же
тему. Но у каждой PPC стоимость объявления колеблется в зависимости от его
позиции. И вместо того, чтобы иметь 20 объявлений от одной PPC, мультифид
позволяет иметь «смесь». Он берет первые несколько объявлений с каждой из систем
и мешает их в одну кучу, отсекая объявления «подешевле». Таким образом, собрав
самые дорогие объявления с разных систем, можно весьма существенно повысить свой
заработок на том же самом трафике.
Разумеется, и TDS, и фид должны располагаться на отказоустойчивом и надежном
хостинге. Эти две системы, это то, от чего напрямую зависит, дойдут до фида
посетители или нет. И соответственно – получите вы свои деньги или нет, и в
каком объеме.
В этой статье мы прошлись по «вершкам» SEM, и возможно некоторые вопросы в
дальнейшем будут рассмотрены более подробно. В любом случае вы можете оставлять
свои вопросы и комментарии на форуме.
Следует обратить внимание, что эта статья рассчитана больше на новичков,
нуждающихся в стартовой информации. Матерые мастера могут дополнить материал
своими комментариями, я буду только рад.
|
Партнеры
|