KnigaRead.com/
KnigaRead.com » Компьютеры и Интернет » Интернет » Александр Кузин - Противодействие черному PR в Интернете

Александр Кузин - Противодействие черному PR в Интернете

На нашем сайте KnigaRead.com Вы можете абсолютно бесплатно читать книгу онлайн Александр Кузин, "Противодействие черному PR в Интернете" бесплатно, без регистрации.
Перейти на страницу:

Кроме того, в программе предусмотрены фильтры, которые позволяют исключать из проверки определенные строки (например, постоянно меняющееся время или дату в углу страницы либо афоризм, который некоторые оптимизаторы сайтов любят постоянно менять на странице). Использование фильтров позволяет исключать неинформативные сообщения о наличии изменений на странице.

Архивирование страницы непосредственно в программе WebSite-Watcher не предусмотрено, однако производитель вместе с ней поставляет бесплатную программу Local WebSite Archive, которая как раз и создает архивную копию странички Интернета. При этом Local WebSite Archive может запускаться из того же меню, встроенного в браузер, что и WebSite-Watcher.

Подробное описание этих и других возможностей программы WebSite-Watcher приведено в разделе «Помощь» этой программы, поэтому мы не будем останавливаться на них более детально.

Программа Check&Get. Это отечественный продукт. Преимуществом российского происхождения программы является не только корректная поддержка русского языка, но и возможность ее приобретения за российские рубли, а также доступность создателя программы, если к нему появляются вопросы. Причем техническая поддержка при этом также русскоязычная, в отличие от программ-конкурентов.

Мы подтверждаем, что Дмитрий Скорняков ( [email protected] com) – человек, который создал и поддерживает программу Check& Get, действительно всегда готов помочь разобраться с проблемой, если таковая возникает. Так, одному из авторов этой книги пришлось столкнуться с ситуацией, когда ни одна из приведенных здесь программ не смогла отследить изменения на сайте некоего российского университета. Попытавшись понять причины этой проблемы, в бессилии расписались как создатели и администраторы проблемного сайта, так и служба технической поддержки WebSite-Watcher. И только Дмитрий Скорняков внимательно изучил проблемный сайт, разобрался в причинах возникшей ситуации и дал рекомендации, которые позволили устранить проблему. На наш взгляд, это немаловажное обстоятельство, говорящее в пользу программы Check&Get.

Скачать программу можно по адресу: www.activeurls.com/ru/download.php

Вот что говорит о возможностях программы сам ее создатель:

При обнаружении на веб-странице новой информации, Check&Get автоматически сохраняет «снимок» этой страницы в локальную базу данных и информирует Вас указанным Вами способом. Check&Get может послать Вам сообщение электронной почты с содержанием измененной веб-страницы, при этом изменения на странице будут «подсвечены» для их легкой идентификации. Также программа может вывести сообщение на экран или проиграть звуковой файл, информируя Вас об изменениях.

Check&Get автоматически извлекает названия и описания веб-страниц при создании закладки, проверяет Вашу коллекцию на наличие «мертвых» ссылок, находит дублирующиеся ссылки в Вашей коллекции закладок. Check&Get работает с Internet Explorer, Netscape, Mozilla, Opera, позволяя Вам импортировать, экспортировать и синхронизовать закладки. Благодаря этому Вы всегда имеете в выбранном браузере актуальную и организованную коллекцию ссылок.

Список ссылок также может быть импортирован и добавлен к Вашим закладкам из буфера обмена Windows, окна браузера, HTML-файла или офисного документа.

В дополнение ко всему, Check&Get позволяет конвертировать Вашу коллекцию закладок в файл HTML с легкой и удобной навигацией. Это дает Вам возможность опубликовать свои закладки на веб-сайте или создать в Интернет свой мини-портал буквально за пару минут.

На наш взгляд, способность программы импортировать все закладки или их часть в HTML-файл – интересная находка автора. В ряде случаев эта функция открывает очень полезные возможности. Такой файл может быть использован на сайте как страница с работающими гиперссылками. Причем если его обработать в любом редакторе HTML-файлов, например, в Frontpage или в Dreamweaver, то можно снабдить первоначальный документ необходимыми текстовыми пояснениями или иллюстрациями.

Кроме того, программа Check&Get позволяет одним кликом мыши извлечь все гиперссылки, которые есть на странице.

Полезна и функция удаления «мертвых» и дублирующихся ссылок.

Стоимость программы для частного лица на момент написания книги составляла 580 рублей.

Существует 30-дневная ознакомительная версия программы.[63]

Сторожевые роботы для больших массивов информации. Программы, о которых мы говорили выше, отлично зарекомендовали себя при мониторинге до 500 закладок ежедневно. При большем количестве закладок, как правило, возникают проблемы, связанные с тем, что занесение результатов мониторинга в базу данных делается вручную, чаще всего путем копирования материалов в текстовые файлы – ведь у сторожевых роботов нет собственной базы данных – они лишь показывают изменения по сравнению с предыдущим посещением сайта. При большом объеме работы это становится очень трудоемким занятием. А крупным компаниям и в «мирное» время, и во время информационной войны в Интернете приходится отслеживать значительное количество интернет-источников.

Для таких случаев существует целая линейка программ «Аваланч» (Avalanche),[64] созданных российским специалистом Андреем Масаловичем, который по праву считается одним из лучших в мире специалистом по созданию аналитического программного обеспечения, а «Аваланч» имеет несколько патентов в разных странах.

В отличие от программ WebSite-Watcher и Check&Get, «Аваланч» умеет не только показывать изменения на сайтах, но и сохраняет эти изменения в собственную базу данных, которая может просматриваться непосредственно в программе «Аваланч», а может быть импортирована в Microsoft Access.

Работа с «Аваланчем» выглядит следующим образом. Сначала настраивается собственный паук программы, которому «объясняют», на какие сайты ему надо ходить за информацией. Он может посещать как отдельные разделы сайтов, так и страницы поисковых машин по запросу (например, если на мониторинг поставлена первая страница Гугла по интересующему вас поисковому запросу). Затем настраиваются так называемые умные папки, которые из массива принесенной пауком информации выбирают ту, что относится к определенной теме, и забирают эту информацию к себе. Таким образом, «умные папки» автоматизируют процесс сортировки собранной информации. Эта рассортированная информация хранится в базе данных «Аваланча» и доступна для работы в любой момент.

Более сложные версии «Аваланча», помимо описанной работы, способны к обучению. В простом варианте тексты собираются в Интернете и затем сортируются в программе по прямо указанным ключевым словам. В более сложных версиях они выбираются и сортируются в контексте поставленной задачи, даже если ключевых слов на странице не содержится. Например, если некоторое время вручную помещать материалы, не содержащие ключевых слов, в «умные папки», то со временем, анализируя самостоятельно каждый раз эти тексты, «умные папки» смогут сами распознавать, какие материалы владелец хочет видеть в данной рубрике. Наиболее продвинутые версии «Аваланча» умеют маскироваться под обычный браузер, не давая таким образом объекту возможности вообще понять, что его мониторят «Аваланчем», а также умеют пользоваться анонимайзерами, скрывающими истинный IP-адрес. Объект изучения пребывает в таком случае в уверенности, что к нему заходил обычный посетитель и не распознает город или страну, откуда вы на самом деле посещали его сайт.

Работа самой продвинутой версии «Аваланча», с точки зрения пользователя, выглядит так. Рано утром «просыпается» паук и идет собирать материал. Когда он заканчивает работу, «просыпаются» «умные папки», анализируют собранное и раскладывают по тематическим рубрикам. Затем на компьютере пользователя создается автоматически локальный сайт, который показывает на экране компьютера руководителя все новые сообщения, рассортированные по рубрикам, а также предоставляет возможность сделать запрос к базе данных и посмотреть архив, оценить ситуацию в динамике.

Существует также версия «Аваланча», которая собирает не только изменения, но всю информацию по теме, даже если она повторяется. В ряде случаев пользователям бывает нужна именно такая функция.

Но самая простая и недорогая версия «Аваланча» похожа на WebSite-Watcher, дополненный автоматической сортировкой найденных материалов и базой данных, позволяющей их хранить и анализировать. На наш взгляд, «Аваланч» – возможно, лучшее решение на сегодня для автоматического мониторинга и анализа больших массивов информации в Интернете.

Архив сайтов Internet Archive Wayback Machine

Очень часто нападение черных пиарщиков происходит неожиданно для вас. В таком случае вы впервые сталкиваетесь с необходимостью пристального изучения противника. В случае если вы даже предполагали подобное развитие событий (например, в политике), все равно, как показывает практика, есть множество нюансов, которые, возможно, не казались важными вчера, но вдруг приобрели новое звучание. Все это усугубляется тем, что противник, спланировавший нападение, готовится к нему и обычно успевает убрать из Интернета ту информацию, которая могла бы ему повредить. В этом случае на помощь нередко может прийти сервис, который нам первым порекомендовал Arthur Weiss из Великобритании. Мы уже упоминали этот ресурс в начале нашей книги – он называется Internet Archive Wayback Machine[65] и позиционируется как архив Интернета. Пауки, принадлежащие Internet Archive Wayback Machine, посещают сайты в Интернете и сохраняют архивную копию на его сервере. Как написано на сайте этого ресурса, интересующий нас сайт может и не оказаться в архиве. Например, в случае если паук не может его прочитать, поскольку тот был в свое время запрещен к индексации.

Перейти на страницу:
Прокомментировать
Подтвердите что вы не робот:*