KnigaRead.com/
KnigaRead.com » Компьютеры и Интернет » Интернет » Леонид Гроховский - Продвижение порталов и интернет-магазинов

Леонид Гроховский - Продвижение порталов и интернет-магазинов

На нашем сайте KnigaRead.com Вы можете абсолютно бесплатно читать книгу онлайн Леонид Гроховский, "Продвижение порталов и интернет-магазинов" бесплатно, без регистрации.
Перейти на страницу:

Со стороны клиентов также отсутствует понимание, что для портала нужны команда и значительные инвестиции. В 99 случаях из 100 продвижением сайтов портального типа занимается один человек либо в штате клиента, либо на уровне SEO-специалиста на фрилансе или в оптимизаторской компании. Результат получается посредственным, а иногда проект просто проваливается.

Многие сайты портального типа и вовсе продвигаются только за счет контента. Не подозревая о потенциале SEO, их владельцы теряют десятки и сотни тысяч посетителей и, как следствие, недополучают прибыль.

Довольно успешным, на мой взгляд, является кейс проекта Wikimart.ru, где над продвижением крупного портала работает целая команда программистов, аналитиков, специалистов по оптимизации и контенту. Как следствие, проект занимает неплохие позиции на рынке и в поисковых машинах. Других успешных кейсов я не помню».

Глава 2

Анализ конкурентов

Специалисты по SEO придают большое значение анализу конкурентов. Но значительная часть проектов продвигается неэффективно, а их анализ приводит к заимствованию бесполезных решений. В этой главе вы научитесь выбирать проекты для анализа и сможете определять, какие решения конкурентов могут быть вам полезны.

Кого анализировать?

Поскольку наша цель – стать лидером в теме, то и изучать надо лидеров поискового трафика. Как правило, это 2-3, очень редко 5-6 сайтов. В некоторых темах, например фотографии, лидер всего один.

Что необходимо изучить:

□ структуру сайта, его разделы и сервисы;

□ типы и источники контента;

□ семантическое ядро;

□ присутствие в социальных медиа;

□ источники ссылок;

□ видимость в поисковых системах;

□ трафик с поисковых систем.

Последний пункт очень важен: для продвижения нам надо анализировать не трафик в целом, а именно трафик с поисковых систем (ПС). При этом далеко не всегда лидер по общему трафику будет лидером по трафику с поиска. В этом смысле очень показательна автотематика, в которой наибольший объем поискового трафика собирает далеко не самый посещаемый в целом проект CarsGuru.net.

Инструменты для определения лидеров

SEORate – сервис, разработанный компанией «Ашманов и партнеры». Система собирает данные о видимости сайтов в ПС, анализирует позиции, частотность поисковых запросов и – частично – количество проиндексированных ссылок. Существенным недостатком системы является работа по сравнительно небольшому числу наиболее частотных запросов, однако и этих данных достаточно для того, чтобы выявить лидеров и получить общее представление об их состоянии (рис. 2.1).

Рис. 2.1


MegaIndex позволяет бесплатно получать данные о видимости тех или иных сайтов по поисковым запросам с учетом региона и в динамике от апдейта к апдейту (рис. 2.2). Количество запросов также ограничено несколькими сотнями даже для самых больших сайтов, однако в целом сервис более информативен, чем SEORate.

Рис. 2.2


Wordstat.yandex.ru. Помимо сбора семантики, к которому мы еще вернемся, позволяет оценить тайп-ин-трафик, то есть трафик, получаемый по запросам, совпадающим с именем сайта. Разумеется, цифры не абсолютные, но сравнительные оценки получаются довольно точными (рис. 2.3).

Рис. 2.3


LiveInternet.ru. Представляет абсолютные цифры по суточному трафику, а если владелец сайта не закроет доступ к статистике сайта – еще и массу другой полезной информации (трафик с ПС, география, наиболее популярные страницы и т. п.) (рис. 2.4).

Рис. 2.4

Сравнение авторитетности ресурсов

Для оценки авторитетности достаточно сравнить ряд косвенных признаков продвижения:

□ тематический индекс цитирования (ТИЦ);

□ PageRank;

□ количество проиндексированных страниц в «Яндексе» и Google;

□ число входящих ссылок на основе Solomono.ru или другого сервиса (сервисов);

□ данные whois, в первую очередь дату регистрации, хотя записи DNS тоже могут дать пищу для ума.

К этому следует добавить результаты продвижения: объем поискового трафика, коэффициент видимости в поисковых системах и т. п. Все данные сводятся в таблицу, на основе которой легко определить сайт с самым эффективным продвижением. Например, оценим количество входящих ссылок и сайтов доноров при помощи сервиса Solomono.ru (табл. 2.1).


Таблица 2.1

В таблице представлены данные по трем крупнейшим порталам одной тематики. Совершенно очевидно, что наибольшего внимания заслуживает сайт CarsGuru.net, который при заметно меньших возрасте и количестве страниц имеет отличные видимость и поисковый трафик. Изучая его, мы можем (и должны) найти те факторы, которые сделали его одним из лидеров.

Общий анализ портала-конкурента

Еще раз приведем список характеристик и факторов, на которые следует обратить внимание, анализируя портал-конкурент:

□ структура сайта, его разделы и сервисы;

□ типы и источники контента;

□ семантическое ядро;

□ присутствие в социальных медиа;

□ источники ссылок;

□ видимость в поисковых системах;

□ трафик с поисковых систем.

Структура сайта

В рамках изучения структуры (рис. 2.5 а, б) вы должны определить:

□ разделы, их взаимосвязь, источники трафика для каждого из них;

□ типы страниц, источники трафика для них;

□ структуру URL;

□ схему перелинковки;

□ структуру метатегов.

Пример схемы перелинковки (рис. 2.6).

Вовсе не обязательно слепо копировать все приемы, используемые конкурентом, но взять на вооружение наиболее эффективные из них необходимо. Кроме того, совокупное изучение структуры сайта и статистики позволит получить информацию о том, что именно нужно пользователю и как именно он решает свои проблемы при помощи сайта. Вполне возможно, что у лидера есть серьезные ошибки в навигации: они вряд ли отпугнут старых пользователей, но вот новые вполне могут предпочесть ваш портал просто потому, что он удобнее.

Рис. 2.5, а


Рис. 2.5, б


Рис. 2.6


Кластеры. Если портал имеет нормальную структуру, в нем легко выявить кластеры, которые будут иметь URL типа site.ru/klasterl, site.ru/klaster2, site.ru/klasterl/podklasterl и т. п. Крайне желательно составить максимально полный список всех кластеров и подкластеров с масками URL – это позволит упростить изучение индексов.

Сравнение индексов

Изучая поисковые индексы «Яндекс» и Google с помощью операторов inurl: и site, мы можем найти разницу в количестве проиндексированных страниц по сайту в целом и по каждому кластеру в частности. Это самая простая и эффективная проверка сайта на ошибки, дубликаты, мусор, проблемы индексации, и она позволит нам составить перечень проблем. Например, такой.

□ Одна и та же страница расположена по разным URL (дублирование). Причины разнообразны – это и смена системы URL без установки кода ответа 301 (страница перемещена навсегда), и использование кода ответа 302 (страница перемещена временно) вместо 301, просто создание нескольких страниц с одинаковым контентом, неправильное использование тегирования, отсутствие закрывающих инструкций в robots.txt и многое другое.

□ В индексе отражены версии страниц для печати.

□ Страница выглядит как сообщение об ошибке, но на уровне сервера отдает код ответа 200 (все в порядке).

□ Страницы с практически идентичным контентом.

□ Страницы с ошибкой базы данных (страница отдает код ответа 200, но весь контент на ней – ошибка базы данных (БД)).

□ Дубли, связанные с индексацией страниц с www и без.

□ Дубли, связанные с возможностью зайти на сайт по IP.

□ Дубли, связанные с Session ID.

□ Дубли, связанные с сортировкой элементов в каталогах.

□ Дубли, связанные с пагинацией и календарем событий.

□ Индексация страниц внутренней поисковой выдачи (тут следует отметить, что «Яндекс» не желает индексировать такие страницы, но грань между страницей внутренней поисковой выдачи и страницей каталога довольно зыбка).

□ Страницы с поддоменов – зеркальных, тестовых и т. п.

Веселая история про тестовый поддомен. Забавная история из практики связана с тестовыми поддоменами. Клиент звонит в ужасе и говорит: «Мы попали под фильтр». – «Почему?» – «У нас одна страница в выдаче». Смотрим – правда, одна страница в выдаче. Непонятно, как так получилось. Вчера было несколько тысяч страниц, сегодня одна. Оказалось, программист, перенося сайт с тестового домена на основной, поскольку на тестовом все продумано, перенес и robots.txt со строчкой «disallow/». Все.

Все отмеченные ранее проблемы приводят к тому, что вес размывается, нужные страницы не индексируются и ранжирование осуществляется не по тем страницам, которые нам необходимы, а по тем, которые нашел робот. При создании нами портала все эти проблемы должны быть исключены.

Перейти на страницу:
Прокомментировать
Подтвердите что вы не робот:*