Как обновить структуру сайта не потеряв при этом позиции в поисковике?
Говорят, что переезд – страшнее пожара. И это актуальная проблема для любого сайта.
Допустим, что в каком-то там бородатом году «талантливый программист» написал вам сайт на чистом html коде (ну или php, но без вывода из базы). Странички обзывались типа item_44.html или articles.php?id=44 ну и т.д.
И вам (или заказчику) все нравилось. Тогда никто не задумывался о том, что такое ЧПУ, и как это влияет на позиции сайта в поисковых системах. А надо было бы. Тем более что сделать «красивые» названия страничек совсем несложно с помощью файла .htaccess (что это такое), можно даже кириллицей. В общем, простор для фантазии ничем не ограничен, только знаниями :)
Сама сталкивалась много раз с проблемой изменения структуры сайта, но т.к. раньше в мои руки не попадал ресурс с большой посещаемостью и приличным ТИЦ, то потерять пару позиций на 50 странице выдачи Яндекса было не страшно.
Теперь же, работая над крупным проектом (сайт автосалона «Милан Авто» - официального дилера Alfa Romeo в Санкт-Петербурге), посещаемость которого в среднем около 200 человек в день, а выдача по запросу Альфа Ромео – Топ10 Яндекса и Google, столкнулась с тем, что терять позиции, пока сайт полностью переиндексируется поисковиками, было бы очень неприятно. Тем более, что это процесс долгий (до 2 месяцев), и болезненный (в выдачу результатов поиска будут попадать уже несуществующие страницы).
Лекарство здесь очень простое: перед тем как залить новый сайт в интернет, надо «объяснить» поисковикам, что сайт изменился. Для этого надо сделать несколько простых действий:
Шаг первый: прописать 301 редирект в файле .htaccess на ВСЕ! страницы, адреса которых изменили url. Этой проблеме посвящено много статей, так что подробно писать не буду, просто приведу директиву:
Redirect 301 sport.html http://milanauto.ru/auto/sport.html
Да, писать ручками надо много, но оно того стоит. На моем примере Яндекс меньше чем за неделю полностью переиндексировал новый сайт (238 страниц). Минус такого редиректа состоит в том, что он не перекидывает пользователя на новую страницу, так что если где-то эти адреса засветились – то, увы, надо либо писать 404 редирект, либо делать 404 страницу.
Шаг второй: через несколько дней просматриваем индексирование сайта и обращаем внимание, какие страницы еще не выкинуты из поиска. Создаем файл robots.txt (подробно о файле robots.txt), где точно указываем, какие страницы индексировать больше не надо.
Пример файла robots.txt:
User-Agent: * //для всех поисковых роботов
Disallow: /add/ //запрещаем директорию /add
Disallow: /item //запрещаем все файлы, имя которых начинается с item
Allow: /auto/sport- //разрешаем новую директорию с сохранением старого URL
Disallow: /sport- //запрещаем все файлы из старой директории (в корне)
Disallow: /select_auto.swf //запрещаем конкретный файл
Заливаем готовый файл в корень сайта, и смотрим через Яндекс.Вэбмастер с помощью инструмента «Анализ robots.txt», все ли корректно.
А потом заходим ежедневно на Яндекс.Метрику и радуемся растущей посещаемости сайта :)
Ну и конечно, не надо забывать, что посещаемость сайта обеспечивается не только правильной и понятной структурой подачи информации, но и user-friendly интрефейс, хороший дизайн и интресные актуальные материалы.
Автор: Дарья Рыбалтович, 31.01.2012.
P.S. Спустя 4 месяца после проведения обновлений на сайте (скрин сделан 25 апреля 2012 г.). Похоже, у Яндекса просто не осталось свободных слотов для иконок поисковиков :)