Как обновить структуру сайта не потеряв при этом позиции в поисковике?

31 Янв 2012 / Дарья Рыбалтович

Говорят, что переезд – страшнее пожара. И это актуальная проблема для любого сайта.

Допустим, что в каком-то там бородатом году «талантливый программист» написал вам сайт на чистом html коде (ну или php, но без вывода из базы). Странички обзывались типа item_44.html или articles.php?id=44 ну и т.д.

И вам (или заказчику) все нравилось. Тогда никто не задумывался о том, что такое ЧПУ, и как это влияет на позиции сайта в поисковых системах. А надо было бы. Тем более что сделать «красивые» названия страничек совсем несложно с помощью файла .htaccess (что это такое), можно даже кириллицей. В общем, простор для фантазии ничем не ограничен, только знаниями :)

Сама сталкивалась много раз с проблемой изменения структуры сайта, но т.к. раньше в мои руки не попадал ресурс с большой посещаемостью и приличным ТИЦ, то потерять пару позиций на 50 странице выдачи Яндекса было не страшно.

Теперь же, работая над крупным проектом (сайт автосалона «Милан Авто» - официального дилера Alfa Romeo в Санкт-Петербурге), посещаемость которого в среднем около 200 человек в день, а выдача по запросу Альфа Ромео – Топ10 Яндекса и Google, столкнулась с тем, что терять позиции, пока сайт полностью переиндексируется поисковиками, было бы очень неприятно. Тем более, что это процесс долгий (до 2 месяцев), и болезненный (в выдачу результатов поиска будут попадать уже несуществующие страницы).

Поисковые запросы к сайту Милан-Авто

Лекарство здесь очень простое: перед тем как залить новый сайт в интернет, надо «объяснить» поисковикам, что сайт изменился. Для этого надо сделать несколько простых действий:

Шаг первый: прописать 301 редирект в файле .htaccess на ВСЕ! страницы, адреса которых изменили url. Этой проблеме посвящено много статей, так что подробно писать не буду, просто приведу директиву:

Redirect 301 sport.html http://milanauto.ru/auto/sport.html

Да, писать ручками надо много, но оно того стоит. На моем примере Яндекс меньше чем за неделю полностью переиндексировал новый сайт (238 страниц). Минус такого редиректа состоит в том, что он не перекидывает пользователя на новую страницу, так что если где-то эти адреса засветились – то, увы, надо либо писать 404 редирект, либо делать 404 страницу.

Шаг второй: через несколько дней просматриваем индексирование сайта и обращаем внимание, какие страницы еще не выкинуты из поиска. Создаем файл robots.txt (подробно о файле robots.txt), где точно указываем, какие страницы индексировать больше не надо.

Пример файла robots.txt:
User-Agent: *       //для всех поисковых роботов
Disallow: /add/     //запрещаем директорию /add
Disallow: /item     //запрещаем все файлы, имя которых начинается с item
Allow: /auto/sport-    //разрешаем новую директорию с сохранением старого URL
Disallow: /sport-      //запрещаем все файлы из старой директории (в корне)
Disallow: /select_auto.swf  //запрещаем конкретный файл

Заливаем готовый файл в корень сайта, и смотрим через Яндекс.Вэбмастер с помощью инструмента «Анализ robots.txt», все ли корректно.

А потом заходим ежедневно на Яндекс.Метрику и радуемся растущей посещаемости сайта :)

График посещаемости до и после обновления сайта

Ну и конечно, не надо забывать, что посещаемость сайта обеспечивается не только правильной и понятной структурой подачи информации, но и user-friendly интрефейс, хороший дизайн и интресные актуальные материалы.

Автор: Дарья Рыбалтович, 31.01.2012.

 

P.S. Спустя 4 месяца после проведения обновлений на сайте (скрин сделан 25 апреля 2012 г.). Похоже, у Яндекса просто не осталось свободных слотов для иконок поисковиков :)

Результаты поисковой выдачи Яндекс

Метки: СЕО, Сайтостроение