Евгений Мухутдинов - Как сделать свой сайт и заработать на нем. Практическое пособие для начинающих по заработку в Интернете
4.9. Резервное копирование данных
Ситуация, когда хостер исчезает вместе с сайтами, не такая редкость, как можно подумать. Для владельца динамических сайтов подобное происшествие может привести к полной потере всех сайтов без возможности их скорого восстановления.
Дело в том, что, работая над динамическим сайтом, мы добавляем материал непосредственно на хостинг, зачастую не оставляя никаких копий проделанной работы на локальном компьютере. Все хостеры делают либо должны делать так называемые «бэкапы» сайтов, то есть архивы с файлами. Имея в наличии такой архив, можно восстановить сайты на момент создания архива либо перенести их на другой хостинг.
По умолчанию (без дополнительной оплаты) многие хостеры делают резервное копирование всех имеющихся у них на обслуживании сайтов один раз в неделю. За дополнительную плату архивы сайтов могут создаваться ежедневно. В любое время вы можете запросить у хостера последний архив.
Все это звучит обнадеживающе, но, увы, ни один хостер не застрахован от нештатных ситуаций. Даже у самых крупных хостеров бывают серьезные проблемы, сопровождаемые потерей клиентских сайтов или их недоступностью в течение нескольких недель. По этой причине рекомендуем хотя бы раз в месяц делать резервные копии своих сайтов и загружать их на локальный компьютер.
Как сделать архив сайта, мы покажем на примере уже известного вам хостинга www.best-hoster.ru и панели управления cPanel. Для запуска мастера резервного копирования заходим в панель управления хостингом и переходим по ссылке Мастер резервного копирования (рис. 4.56).
Рис. 4.56. Запуск мастера резервного копирования
Для создания резервной копии нужно выполнить всего три несложных действия (рис. 4.57).
Рис. 4.57. Для создания резервной копии мастер предлагает выполнить три шага
Пожалуй, в пояснении нуждается только второй шаг, на котором пользователю необходимо выбрать, какую копию создавать: полную или частичную. Рекомендуем создавать полную резервную копию всех файлов.
Что касается места хранения копии, то можно оставить настройки по умолчанию – Домашний каталог. На создание резервной копии потребуется время, по истечении которого на указанный вами адрес электронной почты придет письмо о том, что резервная копия учетной записи создана и ее можно загрузить. Ссылки на все резервные копии доступны в учетной записи (рис. 4.58).
Рис. 4.58. Ссылка на резервную копию учетной записи
После того как резервная копия будет загружена на локальный компьютер, ее можно удалить с хостинга.
4.10. Выводы
• Перед покупкой платных услуг желательно стать пользователем платежных систем «Яндекс.Деньги» и WebMoney.
• Выбирая платный хостинг, неплохо почитать свежие отзывы о нем.
• Самыми популярными CMS в мире являются WordPress, Joomla! и Drupal.
• WordPress – наилучший выбор для начинающих веб-мастеров.
• Никогда не нужно забывать о резервном копировании данных.
Работая над этой главой, мы постарались собрать такое количество материала, чтобы его было достаточно для создания сайта на WordPress даже начинающему пользователю. Теперь пора приступить, пожалуй, к самой главной теме книги: к теме раскрутки сайта.
Глава 5
SEO
Изобилие упоминаний аббревиатуры SEO на веб-страницах чаще всего раздражает пользователей. Причина проста – есть много желающих сорвать куш, прикинувшись большим специалистом в этой области. Мы ни в коем случае не позиционируем себя великими гуру в области SEO, но нам есть что сказать и показать по этому поводу.
5.1. Что такое SEO и с чем ее едят? Как работают поисковые системы?
Аббревиатура SEO означает Search Engine Optimization, что можно перевести на русский язык как «оптимизация для поисковых машин». «Википедия» дает следующее уточнение.
SEO – комплекс мер для поднятия позиций сайта в результатах выдачи поисковых систем по определенным запросам пользователей. Обычно чем выше позиция сайта в результатах поиска, тем больше заинтересованных посетителей переходит на него с поисковых систем. При анализе эффективности поисковой оптимизации оценивается стоимость целевого посетителя с учетом времени вывода сайта на указанные позиции и конверсии сайта, на который привлекаются целевые посетители.
Начинающим веб-мастерам надо понять лишь то, что для высокого заработка необходимо обеспечить высокую посещаемость сайта (высокий трафик), то есть «раскрутить» сайт.
Пользователи могут попасть на сайт двумя способами:
• ввести адрес страницы сайта (URL) в адресную строку браузера;
• перейти по ссылке.
В зависимости от способа источники трафика делятся на три основные группы, подразумевающие:
• переход на сайт за счет указания URL;
• переход со ссылающихся сайтов;
• использование поисковых систем (поисковых машин, поисковых серверов, поисковиков).
Поисковый трафик самый ценный, так как большинство людей при поиске информации используют поисковые системы. Самые популярные в России поисковики – «Яндекс» и Google. Для подтверждения этих слов предлагаем вам данные одного нашего сайта, неоптимизированного ни под одну поисковую систему (рис. 5.1).
Рис. 5.1. В России наиболее популярны поисковики «Яндекс» и Google
Как мы ищем информацию в Интернете? Мы запрашиваем ее у поисковой машины, то есть делаем запрос.
Запрос – это слово либо словосочетание, которое пользователь вводит в поисковую строку поисковой машины. Иными словами, запрос – это ключевое словосочетание, по мнению пользователя максимально отвечающее сути той информации, которую он хочет найти.
Главная задача поисковых сервисов – это приближение оценок поисковой машины к человеческой оценке. Иначе говоря, надо сделать так, чтобы автомат принимал решение, как человек. Поисковики заявляют, что для них хороши те же сайты, что и для пользователя – с прозрачной структурой, правильно оформленными текстами. Они утверждают, что специальная оптимизация не требуется – нужно просто делать хорошие сайты, сайты для людей (СДЛ).
Надо заметить, что из года в год алгоритмы работы поисковых систем становятся все совершенней. Как нам кажется, повторяется история с компьютерными программами, играющими в шахматы. Лет двадцать назад многие любители шахмат утверждали, что компьютер никогда не сможет играть с человеком в шахматы на равных, а тем более уверенно его обыгрывать. События последних лет показывают, что скоро компьютер не оставит человеку ни малейшего шанса на выигрыш.
Наверняка со временем поисковые системы научатся не хуже человека определять качество контента, и это надо учитывать, работая над сайтами. У каждой поисковой системы есть свои роботы-программы, которые бродят по Интернету и записывают в базу данных все замеченные изменения. Как и обычные пользователи, роботы перемещаются по ссылкам, которые находят на веб-страницах. Но если на сайт или веб-страницу нет ссылок, то они окажутся незамеченными роботами.
У поисковиков несколько видов роботов, каждый из которых занимается своей работой. Например, есть робот, который индексирует RSS-ленту для поиска по блогам, а есть робот, который занимается только индексированием картинок. Но самым важным является индексирующий робот, который заносит информацию о найденных сайтах в базу данных основного поиска. Если сайт не занесен в эту базу, то на него не получится перейти с поисковой системы, так как она о нем не будет знать.
Увы, быть занесенным в базу данных – это ничто по сравнению с необходимостью попадания в так называемый ТОП, то есть верх списка.
• ТОП10 – это 10 первых результатов выдачи поисковика, которые находятся на первой странице;
• ТОП20 – как вы понимаете, список начинается на второй странице, на которую заходят только порядка 13 % пользователей;
• ТОП30 – на третьей странице заканчивается так называемая «зона видимости сайта», так как дальше третьей страницы добирается лишь мизерная доля пользователей.
Задача любого веб-мастера – стремиться к тому, чтобы по интересующим ключевым фразам сайт оказался на первой странице, то есть попал в ТОП10.
Что может быть круче, чем ТОП10? Это ТОП5 либо ТОП3 – идеальное местонахождение для сайта.
Отвечая на запрос пользователя, поисковая машина ранжирует (располагает в определенном порядке) сайты в зависимости от релевантности.
Релевантность – это соответствие найденного материала запросу пользователя. Иными словами, поисковая машина должна понять, что именно хочет найти пользователь, и выдать ссылки на материал, который наиболее точно отвечает запросу.
На данный момент в Интернете можно найти большое количество информации на тему, как надо писать статью, чтобы она оказалась в ТОПе. Приведем несколько рекомендаций:
• заголовок должен быть читаемым и не длинным;