Популярность в сети – рутина или искусство? Версия для печати
 

Чем отличается Микки-Маус от простой серой мышки? Раскрученностью!

 

Для оптимизаторов раскрутка сайта в Сети равно тождественна оптимизации сайта для Поисковых систем. Как мы видели, разработчики поисковых систем вынуждены выступать в роли придирчивых экзаменаторов, дабы соблюсти интересы пользователей в качественной выдаче на запрос и оградить их от нерелевантных, но искусственно раскрученных ресурсов. В то же время, если ваш сайт имеет, к примеру, релевантность запросу на твердую «четверку», как сделать так, чтобы среди других «четверочных» сайтов именно ваш оказался в первых рядах выдачи? Здесь как в спорте – выигрывает тот, кто опытнее, способен принимать быстрые решения и лучше технически подкован.

 

Ссылки. Ссылки. Ссылки

Как мы уже выяснили ранее, поисковые системы так устроены, что наиболее действенный на сегодня способ раскрутить свой сайт заключается в том, чтобы повысить его цитируемость. Основной же способ повышения цитируемости сайта, это размещение ссылок на него на других ресурсах. При этом важно не только и не столько количество, сколько качество ссылки (или линка – от англ. link).

Основные требования к странице, на которой имеет смысл поставить ссылку, сводятся к следующему:

  • Страница не закрыта для индексации поисковыми системами.
  • Находится на тематически близком сайте.
  • Страница имеет хороший Page Rank (минимум 3-4, желательно 5-6), а сайт – высокий тИЦ (чем больше, тем лучше).
  • Количество ссылок на странице не более 10-15 (чем меньше, тем лучше).

Есть также требования к тексту ссылок.

  • Оптимально, когда якорный текст содержит ключевые фразы, под которые оптимизируется сайт.
  • Важно, чтобы использовались различные тексты для ссылок.

Некоторые поисковые машины не любят, когда появляется множество одинаковых ссылок на один и тот же сайт и, закономерно, снижают «вес» ссылок (склеивают их). Кроме того, разные якорные тексты позволяют использовать несколько ключевых фраз в различных сочетаниях.

Думать о привлекательности ссылки только для ранжирующих алгоритмов – еще одна частая ошибка. Если тексты будут достаточно привлекательными для людей, то это может привлечь на Сайт некоторое количество посетителей из популярных каталогов (каталог Яндекса, Rambler Top100 и другие).

Попробуем теперь перечислить наиболее распространенные способы повышения цитируемости вашего сайта:

  • Регистрация сайта в популярных каталогах;
  • Покупка ссылок на сайтах с высоким Page Rank;
  • Обмен ссылками с сайтами близкой тематики;
  • Участие в вебрингах.

Первый способ, пожалуй, один из наиболее честных. Размещая сайт в каталогах следует помнить, что есть наиболее важные, создающиеся и оцениваемые основными поисковыми машинами, а есть узко-специализированные, тематические. Последние, кстати, могут дать вашему сайту неплохой трафик – многие пользователи ищут информацию в упорядоченных данных таких каталогов.

Оптимизируя сайт под Google, следует разместить ссылку в каталоге Dmoz, индексируемом данным поисковиком. Более того, каталог Google – это, на самом деле, копия каталога Dmoz. Для русскоязычных сайтов важнейший каталог – каталог Яндекса. Не забывайте, что тИЦ оценивается исходя из того, насколько сайты в данном каталоге являются тематически близкими. В Рунете не так много качественных каталогов. По мнению экспертов всего несколько сотен обладают высоким Page Rank и тИЦ. Каждый оптимизатор, обычно, имеет собственную базу данных по каталогам.

Покупка ссылок тоже весьма действенный, но отнюдь не халявный метод. Покупка ссылок имеет одно значительное преимущество – вы не должны ставить свою ссылку взамен. Однако, массовая покупка ссылок на сайтах с высоким Page Rank требует значительных капиталовложений, и оправдывает себя только для коммерческих сайтов.

Наиболее же популярным способом увеличить цитируемость вашего сайта будет прямой и непрямой обмен ссылками. Самая простая схема: ты – мне, я – тебе. Сложность состоит в том, чтобы правильно подобрать нужные вам сайты. Наиболее простой и эффективный способ – задать в поисковой машине поиск по ключевым словам вашей тематики и попытаться написать письма владельцам первых десяти сайтов выдачи. Конечно, не все согласятся на обмен. Однако, если у вашего сайта качественный контент, и вы не являетесь прямыми конкурентами, то обмен имеет все шансы состоятся. Общение по переписке может иметь еще один большой плюс для вас: новоявленные партнеры могут заинтересоваться в более широком сотрудничестве. Например, в размещении баннерной рекламы на вашем сайте. Тем не менее, поисковые машины стараются вычислить взаимные ссылки и понизить их «весомость» в своих расчетах. Особенно это касается специальных каталогов, которые владельцы сайтов иногда организуют, чтобы упростить обмен ссылками.

Чтобы запутать поиски взаимных ссылок, оптимизаторы придумали новый ход – создать кольцо сайтов: сайт А ссылается на сайт Б, тот, в свою очередь, на сайт В, В на Г и далее, пока Я не сошлется на А и не замкнет кольцо. Схемы бывают и более запутанными, когда одна группа сайтов ссылается на другую посредством ключевого сайта, организовавшего «кольцо». Подобные действия практически сводят к нулю вероятность нахождения их поисковыми машинами. Соответственно, ценность ссылок не будет снижена. Однако, подбор участников «кольца» также требует немало временных затрат для оценки весомости каждого сайта. Только правильный учет тематики и индексов каждого сайта позволяет получить «весомые» ссылки и поднять свой  (и остальных сайтов-участников) результат в поисковой выдаче.

 

Как облегчить себе жизнь?

Итак, пока ссылки поисковыми системами ставятся во главу угла работы оптимизатора, работа с ними требует огромных затрат сил и времени. Однако, выбор, рассылка, обмен прямой и по кругу, покупка и продажа, проверка и многое другое, что можно сделать со ссылками, особенно когда их количество исчисляется сотнями, вполне могут быть автоматизированы. Что, собственно, и было сделано разработчиками специального программного обеспечения. К примеру, в комплекс программ по раскрутке сайтов Page Promoter входит модуль «Управление ссылками», который ускоряет и максимально упрощает кампанию по установке ссылок на своем и чужих сайтах. Программа позволяет подобрать себе партнеров, на сайтах которых будет установлена ваша ссылка или ссылка которых будет установлена у вас, содержит встроенный e-mail клиент, с помощью которого вы можете отправлять письма с предложениями о сотрудничестве. Также к вашим услугам довольно обширный набор готовых шаблонов писем и конструктор шаблонов для нестандартных ситуаций.

Несомненно, автоматизация рутинной работы позволяет экономить время и продвигать одновременно несколько проектов, оставляя место для творчества. Последнее решительно необходимо, чтобы, как минимум, нейтрализовать «выпады» поисковых систем против оптимизаторов.

 

Забег в ширину

Действительно, пока оптимизаторы всячески упрощают себе жизнь, поисковые системы всячески ее усложняют, продолжая совершенствовать алгоритмы поиска и расставлять новые акценты в уже отработанных.

Подобная эволюция вполне оправдана с точки зрения пользователей поисковых систем. В то же время, в истории развития алгоритмов нельзя не отметить несколько этапов, весьма поучительных для поисковиков, пользователей и оптимизаторов.

К примеру, вскоре после разработки Google Page Rank’а, имел место забавный феномен Google Bomb. Владельцы сайтов «заспамили» поисковую систему путем размещения ссылок, ведущих на официальный сайт президента США Джорджа Буша-младшего. Текст ссылок содержал ключевую фразу "miserable failure", то есть "жалкий неудачник". В результате страница с биографией президента вышла на первое место по запросу «жалкий неудачник». Практика тут же получила широкое распространение и заставила Google более серьезно относиться к такому критерию, как текст входных ссылок. Таким образом сегодня, работая под поисковые системы, которые учитывают текст ссылок (практически все российские поисковики), оптимизаторы вынуждены тщательно продумывать тексты ссылок, стараясь варьировать их и использовать ключевые слова, которые есть на странице, на которую ведет ссылка. В противном случае поисковый робот может просто ее проигнорировать.

Работая на опережение и внося в свои алгоритмы новые факторы, поисковые машины в любой момент способны устроить оптимизаторам «черный день календаря», когда новая система ранжирования в один не очень прекрасный момент ставит выдачи с ног на голову. Такое несколько раз «случалось» с Яндексом. Например, в 2004 году, когда было одновременно добавлено более 10 (по официальному пресс-релизу) факторов ранжирования, а также была попытка ввести человеческий фактор для оценки релевантности результатов поиска (так называемая команда асессоров, измеряющих качество страниц по заданной методике). В данной ситуации наиболее выигрышно смотрелись профессиональные оптимизаторы, успевшие разгадать в считанные часы предложенную Яндексом загадку и вернуть своим подопечным сайтам высокий рейтинг.

Периодически поисковые машины разрабатывают нововведения, о которых оптимизаторы вынуждены много говорить, но не по существу, а по факту.  Вроде есть, но как с ним работать никому до конца не ясно. К примеру, в 2005 году Google (опять Google!) анонсировал новый алгоритм, получивший название TrustRank. Основная идея – полуавтоматическим способом (то есть, с присутствием на первых этапах оценки людей-модераторов) выявить «авторитетность» сайтов. По сути данный алгоритм создан для того, чтобы отделить качественные ресурсы от тех, которые с высокой вероятностью содержат поисковый спам. При этом с последних ресурсов ссылки не учитывать или учитывать с гораздо меньшим коэффициентом. Программы, позволяющей любому рассчитать значение TrustRank нет, однако принцип действия приблизительно ясен: «хорошие» сайты на «плохие» обычно не ссылаются, однако, если есть много ссылок, то шансов, что среди них попадется на «спамерский», созданный для накрутки PageRank, повышается. Работают ли в Рунете подобные механизмы? Можно ли их использовать, чтобы «пессимизировать» сайты-конкуренты? Задачка для нового поколения оптимизаторов.

Что же ждет поисковых оптимизаторов дальше? Несомненно, что то же ссылочное ранжирование очень адекватная технология, от которой поисковые машины вряд ли откажутся. Однако не надо забывать, что не ссылками едиными жив поисковик. «Внутренние» критерии релевантности, а именно то, что наиболее важно для пользователя поисковой машины – контент, снова готовы занять достойное место в поисковом ранжировании. Возможно, оптимизаторам придется всерьез озаботится качественным содержимым сайта, а не прописанными под определенные запросы текстами. А уж хорошее наполнение сайтов, несомненно, пойдет на пользу всему виртуальному сообществу.

 

Для всех, кто на практике столкнулся с проблемами продвижения веб-ресурсов в Сети и хочет узнать как можно «оптимизировать» свою работу, в Москве проводится серия бесплатных семинаров «Анализ, продвижение и управление ресурсом в интернете". Ближайший семинар состоится 25 мая. Ведущие специалисты в области SEO - Сергей Баиров, (исполнительный директор компании NetPromoter), Николай Евдокимов (генеральный директор компании UnMedia) и SEO-аудитор Армэн Бегларян расскажут о возможностях Сети, тенденциях развития Рунета и о стратегиях продвижения веб-ресурсов. Также будут рассмотрены практические примеры применения программных продуктов компании NetPromoter, разработанных специально для поисковой оптимизации.

Следует отметить, что в рамках образовательной программы, компания NetPromoter также проводит индивидуальное обучение основам поискового продвижения на примере ваших собственных сайтов. Данная услуга доступна москвичам и входит в редакцию программного комплекса Page Promoter Эксперт Москва, специально созданного для раскрутки сайтов в Сети.

 
Автор: Ирина Евдокимова
 
Оригинал статьи: http://netpromoter.ru/articles/marketing_33.html
 
Рейтинг@Mail.ru
© Студия WEB-дизайна PM-Studio, 2005. Все права защищены.