- Главная
- Оптимизация сайта в деталях
- Внутренние корректировки страниц сайта
Внутренние корректировки страниц сайта
Использование технологий Flash, JavaScript и frame
Технологий создания сайтов очень много, но поисковые системы научились индексировать не все из них. Если весь сайт или один из ключевых элементов сделан с использованием технологий Flash, Frame или JavaScript, то продвигать такой сайт будет практически невозможно.
Технология Flash используется для производства reach-media сайтов или различных элементов сайта, таких как баннеры, всплывающая реклама, навигация и т.д. Эта технология позволяет создавать красивые сайты с красивыми элементами, но, к сожалению, поисковые системы не читают Flash.
В Яндексе во Flash документе может индексироваться текст, который размещен в следующих блоках: DefineText, DefineText2, DefineEditText, Metadata. Ссылки индексируются, если они размещены в блоках: DoAction, DefineButton, DefineButton2. Но, как показывает практика, при ранжировании предпочтение отдается все же HTML страницам.
Минусы Flаsh технологий для продвижения сайта:
- Для поисковой системы существует только текст. Если навигация на сайте и текст зашиты во Flash-объект, то это ограничивает доступ поискового робота к ссылкам на значимые страницы сайта, содержащие необходимый для продвижения контент. Таким образом, количество ключевых слов, по которым сайт может попасть в TOП выдачи поисковой системы, уменьшается.
- Если все содержимое сайта находится в одном Flash файле, представляющем из себя одну страницу, нет возможности распределять ключевые слова по дополнительным страницам.
- В браузере невозможно увидеть контент без установки Flash plug-in.
Чтобы проверить сайт на использование технологий Flash, необходимо отключить Flash в браузере. Если весь сайт, часть основного контента или меню пропадают, либо если навигация по сайту невозможна или затруднена, значит, на сайте использован Flash, и, как следствие, для продвижения есть препятствия.
Когда проблема обнаружена, необходимо оценить ее масштабы. Flash меню можно исправить на обычное статическое меню или сделать сквозной ссылочный футер. Если же навигация на Flash уже дублируется в каком-то дополнительном статическом меню сайта, то делать сквозной ссылочный футер нет необходимости.
Когда основной контент или весь сайт полностью реализован на Flash, то наиболее предпочтительный вариант – создание сквозного ссылочного футера и размещение контента выше (ниже, сбоку) от Flash объекта. Другим, более трудозатратным вариантом, является создание HTML версии сайта.
Аналогичные препятствия для индексации сайта несет использование на сайте технологий JavaScript. Если в браузере отключена поддержка JavaScript и сайт при этом перестает нормально функционировать, но, главное, исчезает возможность использовать меню и читать текст, то проблема должна решаться на уровне web-разработчиков.
Использование технологий JavaScript в меню можно также вычислить, наведя курсор на ссылку. Если внизу в строке состояния браузера отображается не обычная ссылка, а параметр Javascript, то эту ссылку не видят поисковые системы. В случаях использования JavaScript технологий рекомендуется переписать код сайта с использованием индексируемых форматов. Другой вариант – добавить на страницу дополнительное статическое меню, которое будет доступно пользователям с отключенной поддержкой JavaScript и, соответственно, поисковым системам.
Еще момент, затрудняющий индексацию, - использование фреймов. Frame – это формат веб-страниц, использующих множество независимых секций для создания одной страницы. Каждый фрейм построен как отдельный HTML-файл, но с одним «мастер»-файлом, идентифицирующим каждую секцию. Рассмотрим пример, представленный на рисунке. У различных разделов сайта (фреймов) одинаковый URL.
Использование фреймов может помешать поисковой машине проанализировать страницы сайта. Кроме того, внутри фреймов может быть нарушена ссылочная целостность. Поисковые системы, в частности Яндекс, указывают на допустимость использования тегов <frameset>, <frame> и <noframe>. Однако при использовании данного формата имеется ограничение на доступ к важным областям сайта, и в этом случае вероятность того, что контент сайта с фреймами будет проигнорирован поисковиком, резко повышается.
Наличие фреймов можно обнаружить чисто визуально: обычно страница с фреймами разделена на несколько блоков с прокрутками. Более точно их можно обнаружить, открыв исходный код сайта. Присутствие в исходном коде страницы тегов <frame>, <frameset>, <iframe>, <noframes> подтверждает использование фрейм-технологии.
Для исправления данной ситуации требуется реструктурировать верстку страниц сайта. Рекомендуется вместо фреймов использовать теги форматирования таблиц. Так как возможностей работать с фреймами много, то в некоторых случаях будет достаточно использовать соответствующие теги, например, <noframe>. Однако по опыту можно сказать, что страницы HTML более высоко ранжируются, чем такие экзотические форматы, как frame.
Идентификаторы сессий и динамические URL
Помимо проблем, которые могут нести в себе различные технологии создания страниц, существуют сложности, связанные с адресами страниц. Это URL с идентификаторами сессий и динамические URL, увеличивающие количество дублей на сайте.
Идентификатор сессии – это уникальный символьный код, который добавляется к URL страницы для отслеживания каждого посетителя сайта. Адрес с идентификатором сессии содержит в себе SessionID, или SID. Все URL с идентификатором сессии являются динамическими URL. Например:
Динамические URL – это адреса страниц сайта, которые содержат специальные символы («?», «&», «=» и т.д.) и функции, которые появляются в результате работы различных скриптов на сайте. Например, http://dedal-kovka.ru/?page_id=54.
Дело в том, что роботы поисковых систем воспринимают идентификаторы как уникальные URL, поскольку при каждом заходе на сайт роботу приписывается новый идентификатор. Это влечет за собой появление дублей страниц в индексе, т.к. на сайте появляется большое количество дублированных страниц, а также повышает нагрузку на сервер.
Из-за того, что идентификаторы сессий преобразуют URL, это вызывает серьезные проблемы с индексацией.
Современные алгоритмы поисковых систем позволяют с большой степенью точности отсеивать адреса с идентификаторами сессий, однако бывают случаи, когда определить идентификатор невозможно.
Чтобы избежать появления дублей в индексе, следует предпринять следующие действия:
1. Запретить поисковым роботам индексировать страницы с идентификаторами сессий при первом заходе.
2. С помощью 301 редиректа перенаправлять посетителей, приходящих на страницу с идентификатором сессий, на страницу без него.
3. Если отказаться от использования идентификаторов сессий невозможно, следует применить специальный PHP код, который запретит открытие сессий для роботов поисковых систем. В результате внедрения данного кода роботы поисковых систем вместо сессии будут получать ошибку 404.
Для запрета индексации поисковым роботам страниц с идентификаторами сессий следует в файл .htaccess добавить следующие строки:
php_flag session.use_trans_sid Off (отключение передачи идентификатора через добавление его к URL)
php_flag session.use_only_cookie On (указание серверу передавать идентификаторы через cookie)
php_flag session.auto_start On
Пример кода, позволяющего запретить открытие сессии для поисковых роботов:
$se_mask = «(Yandex|Google bot|StackRambler|YahooSlur p|WebAlta|msnbot)»;
if (ereg($se_mask,$_ SERVER[‘HTTP_USER_ AGENT’])) { if (!empty($_ GET[‘PHPSESSID’])) { header($_SERVER[‘SERVER_ PROTOCOL’].» 404 Not Found»); exit(); }
} else { session_start(); }
4. Закрыть для роботов индексацию страниц с идентификаторами сессий можно также с помощью инструментов самих поисковых систем. Для Яндекса в директиве Clean-param следует прописать все адреса страниц сайта с динамическими параметрами, которые не изменяют содержание страниц. Для Google в инструментах вебмастера в разделе «Конфигурация сайта – Настройки – Обработка параметров» следует задать динамические параметры, которые роботы будут игнорировать. В результате таких манипуляций у страниц, добавляемых в индекс, из URL будет удаляться идентификатор сессий.
Преобразование ссылок из динамических в псевдостатические осуществляется на основании прописанных в базе данных alias-урлов и настройки ЧПУ на уровне CMS сайта. После этого ЧПУ настраивается на уровне сервера: в файл .htaccess добавляется правило mod_rewrite для внутреннего преобразования URL. Завершающий этап – настройка 301 редиректа.
В целом оптимизаторы предпочитают вместо динамических URL настраивать псевдостатические URL или ЧПУ, организуя 301 редирект с динамических на статические страницы.
Избавление от идентификаторов сессий и динамических адресов – важный этап технической оптимизации сайта, так как это помогает устранить дубли страниц в индексе и получить корректное ранжирование основных страниц.
Формирование ЧПУ
Часто при замене динамических URL на псевдостатические в качестве адреса используют написание заголовка страницы транслитерацией.
ЧПУ — это формат адресации страниц сайта, удобный для понимания человеком. ЧПУ расшифровывается, как «человекопонятный урл» (где «урл» — транслит URL).
Например, ЧПУ может выглядеть так:
http://promo.ingate.ru/prodvizhenie-sajta/
ЧПУ могут содержать транслитерированные вхождения продвигаемых запросов (или англоязычные запросы), поэтому они достаточно полезны для продвижения сайта в поисковых системах. Настроив ЧПУ на сайте, важно не забыть настроить корректный редирект со старых адресов на новые.
Формируя ЧПУ, не стоит забывать основные принципы:
Все адреса на сайте должны иметь сходный формат. Например:
www.site.ru/12/35
www.site.ru/12/32
www.site.ru/13/1 и т.д.
Адреса новых URL страниц не должны быть слишком длинными (оптимально 50-70 символов) или содержать спам (перечисление ключевых слов).
Многие современные CMS уже поддерживают ЧПУ на базовом уровне, имеют собственные алгоритмы формирования адресов и таким образом облегчают работу веб-мастера. В любом случае наилучший способ определят веб-разработчики, исходя из особенностей вашего сайта.
ЧПУ очень важны для продвижения высококонкурентных запросов на внутренних страницах, поэтому при наличии динамических URL стоит заранее подготовить псевдостатические адреса в формате ЧПУ.
Битые ссылки на сайте
Битые ссылки – это ссылки, которые ведут на несуществующую страницу сайта, т.е. на 404 ошибку. Такие ссылки возникают, когда динамические URL заменены псевдостатическими, но перенаправление не реализовано, либо когда страница удалена с сайта, но ссылку на нее с других страниц сайта не убрали; либо если в URL страницы содержится ошибка.
Наличие битых ссылок на сайте – это проявление безразличия к посетителям и источник проблем для поисковых роботов, ведь они переходят на несуществующие страницы. Поисковые системы не могут попасть на страницу и проиндексировать действительно важный контент, а посетитель пребывает в недоумении, почему ссылка поставлена на отсутствующую страницу. Такие ссылки нужно вовремя устранять.
Важной задачей поисковой оптимизации является предоставление поисковому роботу доступа к как можно большему количеству контента на сайте, чтобы он мог проиндексировать его и предоставить пользователю ответ на поисковый запрос. Наличие битых ссылок ограничивает возможность индексации содержимого сайта.
Битые ссылки выявляются с помощью исследования навигации сайта. Если есть страницы, при переходе на которые отдается 404-й ответ, это означает, что они битые. Чтобы исправить ситуацию, нужно:
1. восстановить контент на битых страницах;
2. удалить ссылки на несуществующие страницы с других страниц сайта, если контент на битых страницах не может или не должен быть восстановлен;
3. исправить URL на корректный в случае ошибки в адресе.
Если эти действия проблематично осуществить, следует закрыть битые страницы от индексации в файле robots.txt.
Вернуться назад: Сопутствующие настройки сайтаЧитать далее: Дубли страниц