EOMY.NET
Хостинг EOMY.NET: Форум поддержки
 
 FAQFAQ   ПоискПоиск   ПользователиПользователи   ГруппыГруппы   РегистрацияРегистрация 
 ПрофильПрофиль   Войти и проверить личные сообщенияВойти и проверить личные сообщения   ВходВход 
RSS Feed  

История одного сайта
На страницу 1, 2  След.
 
Начать новую тему   Ответить на тему    Список форумов EOMY.NET -> Раскрутка
История одного сайта
Автор Сообщение
Wink
Согнул ложку
Согнул ложку


Зарегистрирован: 08.08.2006
Сообщения: 904
Откуда: Россия, Омск
113654 Монеты

СообщениеДобавлено: Чт, 24 Май, 2007 06:38    Заголовок сообщения: История одного сайта Ответить с цитатой

Многих вебмастеров сейчас интересуют вопросы раскрутки и поисковой оптимизации сайтов. В этой теме я хочу сделать своеобразный блог, в котором постараюсь описать процесс оптимизации одного конкретного сайта шаг за шагом, с самого начала. Надеюсь те приёмы, идеи, инструменты, которые будут использованы, будут интересны, а возможно и полезны, не только мне :)

Итак, сайт radec-m.ru Достался мне "по наследству" от знакомого программиста, который делал его два года назад, да так и не доделал. Тематика - радиодетали.

Шаг 1
Для начала оценим, с чем предстоит иметь дело.

Внутренние параметры сайта:
  • Ужасный внутренний код HTML
  • Функциональность тоже оставляет желать лучшего
  • Длинные кривые URL с кучей параметров
  • Сотни лишних, практически одинаковых страниц

Внешние параметры:
  • ТИЦ - 0 (про ТИЦ читаем в Яндексе)
  • PageRank - 0 для всех страниц (про PageRank читаем в Гугле и Википедии)
  • Проиндексировано страниц в яндексе - 0, в гугле - 85
  • Ссылки на сайт показал только yahoo - 15. В основном ссылки идут со страниц, содержащих в названии слова типа "порно". Понятия не имею, откуда они взялись.
  • Посещаемость сайта - нулевая, думается. Счетчиков пока не стоит.
Для оценки внешних параметров удобнее всего пользоваться программой Site-Auditor, которая достаточно проста в обращении и бесплатна.

После следующего апдейта PageRank (конец июля - начало августа) сайт, в результате оптимизации, должен иметь как минимум PageRank 3 на главной странице, ТИЦ 50, быть проиндексирован во всех основных ПС (поисковых системах) и находится на первой странице выдачи по запросам "Радиодетали в Омске", "Транзисторы в Омске" и им подобным региональным тематическим запросам.

Шаг 2
Прежде чем скормить сайт поисковикам следует навести на нем порядок. Поэтому в корне сайта создаем файлик robots.txt со следующим содержимым
Цитата:
User-agent: *
Disallow: /

Этим мы полностью запретим индексацию сайта в ПС. Кстати, про robots.txt полезно будет почитать robotstxt.org.ru

Продолжение следует...
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Посетить сайт автора
Denisx
Интернет на завтрак
Интернет на завтрак


Зарегистрирован: 27.04.2007
Сообщения: 42

39 Монеты

СообщениеДобавлено: Ср, 30 Май, 2007 12:37    Заголовок сообщения: Ответить с цитатой

мне даже очень понравиось Smile
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Отправить e-mail Посетить сайт автора
masterL
Хостинг — это наше всё!
Хостинг — это наше всё!


Зарегистрирован: 01.04.2007
Сообщения: 224

15721 Монеты

СообщениеДобавлено: Ср, 30 Май, 2007 16:09    Заголовок сообщения: Ответить с цитатой

Wink
Действительно Винк, продолжай, будет очень интересно!!!
Вернуться к началу
Посмотреть профиль Отправить личное сообщение
Arxangel



Зарегистрирован: 23.05.2007
Сообщения: 2
Откуда: Петербург
106 Монеты

СообщениеДобавлено: Ср, 30 Май, 2007 17:19    Заголовок сообщения: Ответить с цитатой

Жду с нетерпением второй части
_________________
Кто с мечём к нам придёт...
... того проще застрелить.
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Отправить e-mail
Wink
Согнул ложку
Согнул ложку


Зарегистрирован: 08.08.2006
Сообщения: 904
Откуда: Россия, Омск
113654 Монеты

СообщениеДобавлено: Чт, 31 Май, 2007 05:11    Заголовок сообщения: Ответить с цитатой

Шаг 3. Псевдостатика

Все странички нашего сайта имеют адреса вида /?page=main, /?page=news и т.д. От таких динамических ссылок и будем избавляться.
Для чего это надо:
  • Поисковики лучше индексируют статические странички
  • Для каждого сайта существует предельное количество динамических страниц, которые могут быть проиндексированы
  • Для сайта с динамическими ссылками поисковики не индексируют странички с более чем третьим уровнем вложенности
  • Если мы будем размещать на сайте рекламу или продавать с него ссылки - статические странички покупают намного охотнее
  • URL страниц выглядит понятнее для человека (ЧПУ).
  • Спрятав имена принимаемых параметров мы в некоторой степени усложним задачу хакерам

Начнем с самого простого - ссылку radec-m.ru/?page=news преобразуем в radec-m.ru/news/
Открываем .htaccess и добавляем следующие строки
Код:
Options +FollowSymLinks
RewriteEngine On

RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d

RewriteRule ^news([\/]?)$ /?page=news [L]


Если разобрать подробнее, то строки
Код:
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d

задают условие, когда начнет срабатывать преобразование: "если физически на сервере нет папки или файла с таким именем"

Модификатор [L] (Last) указывает, что если замена прошла, то следующие условия не проверяем.

Регулярное выражение ([\/]?) говорит о том, что в конце URL может быть закрывающий слэш (а может и не быть). Т.е. одинаково будет работать как ссылка radec-m.ru/news/ так и radec-m.ru/news

После этого введя в адресной строке radec-m.ru/news/ получаем страничку, которая отдавалась при вводе radec-m.ru/?page=news
Осталось открыть код сайта и заменить все динамические ссылки /?page=news на их статический аналог.

Немного усложняем задачу и разбираем страничку каталога товаров.
  1. Основная страничка каталога: /?page=catalog будет иметь вид /catalog/
  2. Страничка разделов "Микросхемы", "Транзисторы" и т.д.: /?page=catalog&cat_Path=NNNN (NNNN - числовой код раздела) преобразуется в /catalog/NNNN/
  3. Внутри разделов товары делятся на несколько страничек вида /?page=catalog&cat_Path=NNNN&p=MM (MM - номер страницы). Из них получим ссылки вида /catalog/NNNN/pageMM.html

Соответствующие строки замены добавляем в .htaccess чуть ниже
Код:
RewriteRule ^catalog([\/]?)$ /?page=catalog [L]
RewriteRule ^catalog/([0-9]+)([\/]?)$ /?page=catalog&cat_Path=$1 [L]
RewriteRule ^catalog/([0-9]+)/page([0-9]+).html([\/]?)$ /?page=catalog&cat_Path=$1&p=$2 [L]


Осталось опять залезть в код и заменить динамические ссылки их новыми аналогами (хм... на это потребуется время...)
Все остальные преобразования аналогично.

Момент, на который стоит обратить внимание - к одной и той же страничке теперь можно обратиться двумя разными способами. Чтобы роботы ПС не лазили по динамическим ссылкам нужно написать также правила, которые будут перенаправлять робота с динамической ссылки на статическую. Но поскольку мне лень писать кучу правил для редиректов, то воспользуюсь тем, что проиндексированных страниц ещё практически нет и правила писать не стану, а сделаю гораздо проще (об этом будет позже)

Ну и для "внеклассного чтения" нашел себе несколько ссылок о работе c mod_rewrite на русском языке. Подробно и с примерами.
Модуль Apache mod_rewrite
Преобразование динамических URL в статические
Преобразование ссылок с помощью Apache

Продолжение после того, как закончу замену всех ссылок...
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Посетить сайт автора
Wink
Согнул ложку
Согнул ложку


Зарегистрирован: 08.08.2006
Сообщения: 904
Откуда: Россия, Омск
113654 Монеты

СообщениеДобавлено: Пт, 01 Июн, 2007 05:53    Заголовок сообщения: Ответить с цитатой

Шаг 4. Внутренняя перелинковка

У понятия "внутренняя перелинковка" растут ноги из статьи Криса Райдингса "Растолкованный PageRank", которая была переведена на русский язык Александром Садовским и сейчас размножена по всему интернету в сотнях экземпляров. Если в двух словах - каждой страничке сайта назначается некоторый начальный вес, который распределяется по внутренним и внешним ссылкам и после учета всех ссылок наибольший вес получает та страница, на которую ссылаются больше всего. Обычно это главная страница сайта.

Существует множество различных схем перелинковки, которые позволяют распределять вес тем или иным способом и, к примеру, при правильно выбранной схеме получить PageRank 3 на морде сайта вообще без внешних ссылок на этот сайт. Кое-кто утверждает, что смог подобным образом получить на главной PageRank 5, хотя это уже сомнительно.

В любом случае в этом отношении у меня на сайте проблема - на главную нет ссылок ни с одной внутренней страницы. Исправляем ситуацию - вешаем одну такую ссылку на логотип в левом верхнем углу, и ещё одну такую же прячем в копирайт, который находится в подвале. Ссылку в менюшках "Главная" направляем на морду сайта, а вместо нее добавим еще одну, которую назовем "О компании"
В итоге с каждой из нескольких сотен внутренних страниц на главную будут смотреть три ссылки. На этом и ограничимся.

Еще одно важное условие правильной внутренней структуры - до любой страницы сайта должно быть не более трех кликов. Проверил... вроде порядок с этим.

Продолжение следует...
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Посетить сайт автора
Wink
Согнул ложку
Согнул ложку


Зарегистрирован: 08.08.2006
Сообщения: 904
Откуда: Россия, Омск
113654 Монеты

СообщениеДобавлено: Пт, 01 Июн, 2007 07:21    Заголовок сообщения: Ответить с цитатой

Шаг 5. robots.txt

Составляем файлик, который будет указывать поисковым роботам как именно они должны проиндексировать сайт.
В индекс Гугля попало некоторое количество динамических ссылок нашего сайта. Я не стал писать кучу редиректов для них в .htaccess, а просто запрещу их индексацию в robots.txt. Статические ссылки проиндексируются, а динамические постепенно из индекса уйдут.

Все динамические ссылки сайта имеют вид /?page=ХХХХХ поэтому правила для всех роботов будут такими:
Код:
User-agent: *
Disallow: /?page=
Disallow: /index.php?page=

Робот Яндекса понимает также директиву Host, которая определяет, какое из зеркал считать главным (т.е. в данном случае какой адрес "главнее" - с www или без него). Основным сайтом будет radec-m.ru. Добавляем:
Код:
User-agent: Yandex
Disallow: /?page=
Disallow: /index.php?page=
Host: radec-m.ru

Ну и одна непроверенная гипотеза (практически слух) говорит о том, что робот Гугля не любит "быть как все" и часто плюет на правила, если про него забывают и валят в кучу с остальными роботами. Не стану обижать малыша и пропишу для него персональные правила :)

В итоге файл robots.txt выглядит у меня следующим образом:
Код:
User-agent: *
Disallow: /?page=
Disallow: /index.php?page=

User-agent: Googlebot
Disallow: /?page=
Disallow: /index.php?page=

User-agent: Yandex
Disallow: /?page=
Disallow: /index.php?page=
Host: radec-m.ru

Его и запишем в коренной каталог сайта.
Осталось пройтись по основным русскоязычным поисковикам и сообщить о своем существовании. Остальные сами подтянутся.

Продолжение следует...
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Посетить сайт автора
Wink
Согнул ложку
Согнул ложку


Зарегистрирован: 08.08.2006
Сообщения: 904
Откуда: Россия, Омск
113654 Монеты

СообщениеДобавлено: Сб, 02 Июн, 2007 02:51    Заголовок сообщения: Ответить с цитатой

Шаг 6. Расширенная статистика

Единственное, что я сделал на этом шаге - установил счетчик liveinternet.ru
Кроме довольно обширной статистики, которая позволяет посмотреть количество просмотров каждой отдельно взятой страницы, переходы с сайтов, поисковые фразы, по которым нас нашли и ещё кучи всяких отчетов и графиков есть и пара не совсем тривиальных плюсов
  • Счетчик устанавливается через JavaScript, соответственно для поисковых роботов он не виден и мы можем сэкономить одну исходящую ссылку.
  • Один из отчетов позволяет следить за поведением основных поисковых роботов. При этом вам не нужно хранить информацию о их приходе у себя на сайте или анализировать многометровые логи доступа
На последнем пункте остановлюсь поподробнее, т.к. далеко не все находят и используют эту возможность.
  1. Регистрируем счетчик и устанавливаем код кнопки себе на сайт
  2. Кликаем по кнопке и переходим в раздел статистики нашего сайта
  3. Выбираем пункт "Экспресс-аудит", далее "Просмотр страниц поисковыми системами" и видим ссылку "(проверьте наличие SSI-вставки ваших на страницах)" (те ещё грамотеи писали :)
  4. Читаем инструкцию по вставке дополнительного кода, записываем php-код в файлик и добавляем его себе на сайт
Обычно я немного модифицирую предлагаемый код, чтобы избавиться от лишних передаваемых параметров и не связываться с SSI
Находим следующие строки
Код:
function liveinternetSeTracker($site_id) {
                  if (!isset($site_id)) exit ;
и заменяем их, подставляя в переменную фиксированное значение имени хоста:
Код:
function liveinternetSeTracker() {
                  $site_id = 'radec-m.ru';

Если сохранить код в файлик spiders.php, то достаточно будет добавить его вызов где-нибудь в самом начале index.php
Код:
include('spiders.php');

Осталось дождаться прихода роботов и уже через сутки вместо ссылки на получение кода увидим нечто вроде вот такого...



Моё вчерашнее приглашение роботам подействовало. Можно посмотреть, какие именно странички ел тот или иной робот.



Статистика сайта в данный момент открыта. Можно полазить и оценить.

Продолжение следует...
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Посетить сайт автора
Denisx
Интернет на завтрак
Интернет на завтрак


Зарегистрирован: 27.04.2007
Сообщения: 42

39 Монеты

СообщениеДобавлено: Сб, 02 Июн, 2007 11:31    Заголовок сообщения: Ответить с цитатой

Много что узнал из этого Wink
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Отправить e-mail Посетить сайт автора
Дедушка Стри
Хостинг — это наше всё!
Хостинг — это наше всё!


Зарегистрирован: 16.10.2006
Сообщения: 173
Откуда: Украина, Луганск
4309 Монеты

СообщениеДобавлено: Сб, 02 Июн, 2007 17:32    Заголовок сообщения: Ответить с цитатой

Wink
спасибо.
Вернуться к началу
Посмотреть профиль Отправить личное сообщение
Wink
Согнул ложку
Согнул ложку


Зарегистрирован: 08.08.2006
Сообщения: 904
Откуда: Россия, Омск
113654 Монеты

СообщениеДобавлено: Вс, 03 Июн, 2007 01:06    Заголовок сообщения: Ответить с цитатой

Поправка к предыдущему пункту. Строку
Цитата:
и заменяем их, подставляя в переменную фиксированное значение имени хоста:
следует читать как
Цитата:
и заменяем их, подставляя в переменную фиксированное значение своего (!!!) имени хоста:
Very Happy
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Посетить сайт автора
Wink
Согнул ложку
Согнул ложку


Зарегистрирован: 08.08.2006
Сообщения: 904
Откуда: Россия, Омск
113654 Монеты

СообщениеДобавлено: Вс, 03 Июн, 2007 02:07    Заголовок сообщения: Ответить с цитатой

Шаг 7. Определение семантического ядра сайта

Этот очень важный шаг заключается в том, чтобы определить по каким именно словам и словосочетаниям мы в дальнейшем будем продвигать сайт. Т.е. каким поисковым запросам сайт должен соответствовать.
Делается это примерно так:
  • С самым тупым видом бродим по сайту и пытаемся определить, о чем там уже написано. Более-менее важные понятия и слова выписываем
    Цитата:
    сервисный центр, радиоэлектронные комплектующие, радиодетали, транзисторы, микросхемы, ремонт видео-техники и т.д.

  • В этот же список добавляем словосочетания, по которым нам хотелось бы продвинуться, но которых на сайте пока нет
  • С помощью статистики запросов Яндекс.Директ или Рамблера определяем, как часто то или иное словосочетание используется при поиске и какие похожие запросы можно включить в список.
  • Выкидываем из списка те запросы, которые не ищут вовсе или ищут всего один-два раза в месяц (да и то это были вы сами).
В зависимости от частоты, запросы делятся на высокочастотные (ВЧ), среднечастотные (СЧ) и низкочастотные (НЧ). Так, например, в Рамблере за апрель месяц слово "радиодетали" искали 1873 раза, а "радиодетали в омске" всего 5 раз. Соответственно первый запрос для нашего сайта - ВЧ, а второй НЧ.



Для высокочастотных запросов конкуренция выше и подняться в топ по ним сложнее (к примеру слово "окна" искали 90648 раз, а "пластиковые окна" - 25875). Чтобы продвинуть низкочастотники как правило хватает совсем небольших изменений на сайте, которыми в скором времени и придется заниматься, но на них и спрос меньше.

Важное дополнение - одну страницу сайта имеет смысл продвигать не более чем по одному-двум конкретным запросам. Главная страница обычно оптимизируется под ВЧ, внутренние под СЧ и НЧ. На данном шаге самое главное - определить, какая именно страница какому запросу больше всего соответствует (или должна соответствовать). Если не провести такой анализ и начать ставить ссылки на сайт или менять заголовки страниц от балды, то все последующие пункты можно пропускать, всё равно толку от такой оптимизации практически не будет.

Поскольку на сайте нет интернет-магазина и наиболее ценные посетители именно омичи, то задача намного упрощается, т.к. оптимизировать придется только по региональным запросам - тем, в которых присутствует название города или области.

Продолжение следует...
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Посетить сайт автора
Wink
Согнул ложку
Согнул ложку


Зарегистрирован: 08.08.2006
Сообщения: 904
Откуда: Россия, Омск
113654 Монеты

СообщениеДобавлено: Вс, 03 Июн, 2007 03:27    Заголовок сообщения: Ответить с цитатой

Лирическое отступление "для сомневающихся"

Часто говорят "да нафига мне эта оптимизация, главное это контент и люди сами подтянутся". Ну да, если контент на сайте действительно уникальный и у вас его ещё не успели украсть и размножить по всему интернету, можно ничего и не делать - рано или поздно кто-нибудь вас найдет всё-равно. А если изначально такого контента нет, а посетители всё-равно нужны?

Или вот к примеру форум взять. Любой более-менее раскрученный форум - богатый источник переходов по НЧ-запросам вроде как. Но даже и это часто не помогает. Для наглядности график переходов с ПС на один форум, которому в этом году уже четыре года, около тысячи зарегистрированных человек и 100000 сообщений. Оптимизация проводилась с середины марта до, примерно, начала апреля. И ведь не только приходят, но и многие регистрируются и помаленьку начинают писать.

Вернуться к началу
Посмотреть профиль Отправить личное сообщение Посетить сайт автора
Roma-i-alena
11 1110 1000
11 1110 1000


Зарегистрирован: 03.05.2007
Сообщения: 1169
Откуда: vladimir
8115 Монеты

СообщениеДобавлено: Пн, 04 Июн, 2007 09:01    Заголовок сообщения: Ответить с цитатой

У меня вопрос!! Надеюсь кореектный!!!
А файл robots.txt так и должен лежать с указанием для работов не индексировать страницы??? Если да то почему??
Просто я не понял куда он делся.
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Отправить e-mail Посетить сайт автора
Wink
Согнул ложку
Согнул ложку


Зарегистрирован: 08.08.2006
Сообщения: 904
Откуда: Россия, Омск
113654 Монеты

СообщениеДобавлено: Пн, 04 Июн, 2007 09:07    Заголовок сообщения: Ответить с цитатой

Roma-i-alena
Файл robots.txt который был в начале я удалил, а вместо него записал новый (это шаг 5 был). Теперь там указания не индексировать только динамические странички, а всё остальное можно.
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Посетить сайт автора
Показать сообщения:   
Начать новую тему   Ответить на тему    Список форумов EOMY.NET -> Раскрутка Часовой пояс: GMT
На страницу 1, 2  След.
Страница 1 из 2

 


Rambler's Top100   Рейтинг@Mail.ru    



Powered by phpBB © 2001, 2005 phpBB Group