KnigaRead.com/
KnigaRead.com » Компьютеры и Интернет » Интернет » Леонид Гроховский - Продвижение порталов и интернет-магазинов

Леонид Гроховский - Продвижение порталов и интернет-магазинов

На нашем сайте KnigaRead.com Вы можете абсолютно бесплатно читать книгу онлайн Леонид Гроховский, "Продвижение порталов и интернет-магазинов" бесплатно, без регистрации.
Перейти на страницу:

Поиск циклических (бесконечных) страниц. Некоторые модули сайта могут создавать циклические страницы. Так, например, распространенный модуль календаря мероприятий позволяет создавать бесконечное количество страниц, углубляясь в даты до эпохи динозавров и еще дальше. Проверка выполняется:

□ как анализ подозрительных модулей (календарь);

□ анализ страниц с высоким уровнем вложенности (сервис «СайтРепорт»).

Проверка на аффилиаты, зеркала, тестовые поддомены. При

продвижении сайта может возникнуть неприятная ситуация, когда после получения результатов поисковая система склеит несколько сайтов клиента между собой. Способы решения проблемы:

□ проверка данных whois (сервис http://nic.ru/whois/);

□ поиск аффилиатов по контактным данным и whois (сервисы http://www.skvotte.ru/, http://2ip.ru/domain-List-by-emaiL/, http://www.recipdonor.com/infowhois);

□ поиск всех проектов на этом IP (запрос IP:255.255.255.255 в Yahoo!);

□ поиск по дублированию контента;

□ поиск совпадений между проектами по контактным данным и адресам организации;

□ поиск совпадений между проектами по контенту;

□ поиск совпадений между проектами по информации о владельцах домена;

□ поиск совпадений между проектами по реквизитам, адресу самовывоза, номерам телефонов;

□ поиск ссылок между проектами;

□ поиск совпадений между проектами по ассортименту и ценовым предложениям;

□ поиск совпадений между проектами по IP;

□ пытка клиента .

Региональность

Ошибки при определении региона. Существует ряд признаков, по которым поисковые системы определяют регион сайта. Иногда регион может быть определен с ошибкой. Например, был случай, когда сайту клиники доктора Александрова присвоили регион «Александров». Общение с коллегами показало, что случай этот не единичный. Данную проблему могут вызвать:

□ наличие слова, схожего с названием региона, в важных областях страницы;

□ то, что поисковая система не добавила нужный регион в список регионов сайта;

□ отсутствие указания явных региональных признаков на сайте.

Проверка корректности определения регионов в «ЯндексКаталоге». «Яндекс.Каталог» – один из способов привязки региона к сайту. Необходимо проверить, какой регион присвоен сайту в «Яндекс.Каталоге».

Проверка корректности определения регионов в «ЯндексАдреса». Если у компании есть представительства в разных городах, следует указать это с помощью панели «Яндекс.Вебмастер», добавив адреса всех представительств.

Проверить, какие регионы добавлены как представительства, в «Яндекс.Адреса».

Проверка ранжирования региональных доменов. Сайт может хорошо ранжироваться в одном регионе и плохо – в другом. Для того чтобы понять, над какими городами нужно работать, необходимо собрать статистику по видимости сайта во всех продвигаемых регионах.

Способ решения проблемы – изучение ранжирования сайта по регионам по всей семантике.

Анализ наличия ссылок с региональных площадок. Для хорошего ранжирования по регионам необходимо получить ссылки с региональных площадок. Многие площадки дают возможность поставить ссылку условно бесплатно.

Способ решения проблемы – поиск площадок, где лидеры размещают статьи, пресс-релизы и т. п., по соответствующим регионам.

Разделение семантического ядра на регионально зависимые и регионально независимые запросы. Чтобы эффективно продвигать сайт в регионах, необходимо иметь представление, по каким запросам выдача различается, а по каким – нет.

Способ решения проблемы – проверка семантического ядра на регионально зависимые запросы (сервис http://www.seoLib.ru/script/geo/).

Спам и уязвимости

Поиск генерируемого контента. Контент, сгенерированный автоматически, с высокой долей вероятности будет расценен поисковой системой как спамный. Необходимо изучить сайт на предмет такого контента. Это делается ручным поиском блоков с генерированным контентом по матрице.

Проверка генерируемого контента на спамность. Если при генерации контента соблюдать определенные правила, он не будет расценен как спам. Необходимо изучить технологию генерации контента:

□ изучить содержание блоков с генерируемым контентом;

□ изучить генерируемый контент на предмет решения проблем пользователей;

□ запросить у клиента и изучить ТЗ, по которому реализованы модули генерации.

Анализ исходящей рекламы на нарушение правил ПС. Согласно лицензии поисковой системы «Яндекс», сайт, использующий рекламу, мешающую пользователю находить нужную ему информацию, будет понижен в ранжировании. К таким видам рекламы относятся:

□ попапы;

□ тизеры;

□ рич-медиа;

□ редиректы;

□ кликандеры;

□ любые всплывающие окна.

Анализ SEOin/SEOout. При простановке ссылок важно учитывать значения SEOin/SEOout, чтобы избежать фильтрации на вес входящей ссылки:

□ количество SEOin должно быть больше количества SEOout (сервисы RDS bar, Solomono);

□ количество исходящих ссылок должно быть меньше количества страниц в индексе (сервисы RDS bar, Solomono, плагин Wink).

Проверка ошибок и спамности HTML-заголовков. Title и H1, Н2…Н6 могут быть заспамлены как намеренно, так и случайно. Необходимо изучить содержание Title и H1 – Н6 по всему сайту. Выявляются следующие проблемы:

□ слишком длинные заголовки (бонус получают не все слова);

□ дублирование Title, дублирование H1;

□ множественный повтор ключевых слов («окна, окна, окна»);

□ использование заголовков не по назначению (ссылки в меню, выделение жирным);

□ несколько заголовков H1;

□ отсутствие заголовков;

□ отсутствие ключевых слов в заголовках;

□ отсутствие связи между текстом и заголовками;

□ совпадение Title и H1.

Проверка страниц на наличие скрытого текста. На странице может быть спамный или важный контент в невидимой области, скрытый при помощи CSS и JavaScript. К примеру, при наличии скрытых спамных ссылок сайт может быть пессимизирован. Способы решения проблемы:

□ HTML-анализ страницы и поиск блоков скрытого текста;

□ визуальный анализ страницы и выделение всего текста с помощью сочетания клавиш Ctrl+A;

□ анализ с помощью плагина WebDeveloper для Firefox;

□ поиск скрытых ссылок. Способы решения проблемы: со страницы (плагин Wink);

□ поиск всех внешних ссылок с сайта (сервис «СайтРепорт»).

Проверка работы службы модерации контента. В результате действий модератора, систематически допускающего на сайт спамные объявления, сайт может быть пессимизирован. В моей практике был такой случай. Способы решения проблемы:

□ поиск в индексе по спамным словам («порно», «диплом», «скачать», «бесплатно», «виагра», adult, viagra, free, blowjob, sex, movies);

□ проверка с помощью ручного добавления спамного контента;

□ установка плагина, автоматически определяющего спамные комментарии (сервис http://api.yandex.ru/cleanweb/).

Проверка работы контент-менеджеров. Неподготовленный контент-менеджер может допустить серьезную ошибку. Важно изучить работу контент-менеджера и подготовить для него инструкции. Проверять нужно:

□ не копирует ли контент-менеджер из Word в визуальный редактор;

□ публикует ли контент-менеджер через <HTML> или через визуальный редактор;

□ выдерживает ли контент-менеджер стандарты оформления текста;

□ крос-браузерны ли опубликованные страницы;

□ не создаются ли дубли контента;

□ нет ли на сайте индексируемых черновиков контента;

□ проверяет ли контент-менеджер поставленные ссылки;

□ учитывает ли контент-менеджер нужды SEO.

Поиск SEO-разделов, SEO-страниц и архивной версии сайта.

На старых сайтах иногда можно встретить пережитки прошлого: скрытый от пользователей раздел для SEO, архивную (старую) версию сайта, на которую нет ссылок. Важно убедиться в том, что эти страницы запрещены для индексации:

□ изучить по HTML-карте сайта, какие существуют категории, сколько там страниц, какие у них URL;

□ изучить список входных страниц;

□ сравнить список страниц в индексе со списком страниц, найденных краулером (A-Parser или Xenu).

Проверка сайта на XSS-уязвимости. Если сайт имеет уязвимости, он может быть заражен вирусом, также может произойти утечка персональных данных пользователей, его могут использовать для простановки спамных ссылок. Виды проверок:

□ с помощью сервиса Acunetix Web Vulnerability Scanner;

□ по чек-листу (https://www.owasp.org/index.php/XSS_Filter_Evasion_Cheat_Sheet).

Проверка текстов на наличие грамматических ошибок и опечаток. Орфографические и грамматические ошибки снижают доверие пользователей к сайту. Проверка орфографии выполняется с помощью сервиса http://www.webmaster.yandex.ru/spellcheck.xml.

Анализ сайта на клоакинг. Некоторые веб-мастера все еще используют клоакинг с целью манипуляции поисковой системой. Необходимо проверить сайт:

Перейти на страницу:
Прокомментировать
Подтвердите что вы не робот:*