- •Лабораторная работа «Программные средства для мониторинга и оценки позиции сайтов в поисковых системах»
- •Задание – определение темы заданной веб-страницы
- •Технология «Семантическое Зеркало»
- •Задание 2 – анализ видимости сайта в поисковых системах
- •Сайт-Аудитор
- •Задание 3 – изучение сервисов для анализа сайтов-конкурентов
- •Задание 4 – мониторинг продвижения и оценка позиции сайта в поисковых системах по заданному набору запросов
- •Сервис SeoRate
- •Задание 5 – проверка соответствия сайта правилам оптимизации Яндекса Регистрация и оптимизация сайтов в пс Яндекс
- •Анализ ключевых слов и вероятных запросов пользователей
- •Рекомендации к использованию сервисов Яндекса
- •Представление информации на сайте
- •Основные советы по оформлению информации на страницах сайта:
- •Аккуратно оформленные и структурированные страницы наиболее привлекательны для пользователя, на них гораздо проще найти нужную информацию. Оформление основных элементов веб-страницы:
- •Заголовок веб-страницы
- •Верстка
- •Кроссбраузерность
- •Структура сайта
- •Важно следить за тем, как страницы вашего сайта связаны друг с другом.
- •Запрещайте индексирование не предназначенных для пользователей страниц в файле robots.Txt. Не размещайте на страницах текст, который пользователи никогда не увидят. Индексирование сайта
- •Три наиболее важных параметра, которые можно указать в этом файле:
- •Следите за корректностью http-заголовков.
- •Дублируйте текст, представленный картинкой.
- •Особенности, возникающие при использовании графики:
- •Не заменяйте текст изображениями, чтобы вся нужная информация была проиндексирована. Несколько советов для улучшения ранжирования в поиске по картинкам:
- •Распространенные ошибки
- •Чем проще и понятнее будет устроен ваш сайт, тем лучше он будет индексироваться. Ссылки
- •Партнерские ссылки.
- •Рекомендации для прессы.
- •Каталоги ссылок.
- •Ссылки, которые могут размещать пользователи на вашем сайте.
- •Платные ссылки, ссылочные биржи.
- •Воспользуйтесь директивой Host либо перенаправлением для переноса сайта на другой домен. Региональность
- •Указывайте на сайте индекс, город, полный адрес и телефон с кодом города Настройка представления сайта в результатах поиска
- •Зарегистрируйте свой сайт в Яндекс. Вебмастере и вы сможете сделать сниппет вашего сайта более привлекательным. Анализ поведения пользователей
- •Наиболее важные отчеты:
- •Анализируйте поведение пользователей на вашем сайте при помощи Яндекс.Метрики. Делайте сайт удобным для пользователя. Безопасность сайта
- •Не сохраняйте пароли для доступа к сайту в популярных ftp-клиентах. Следите за безопасностью веб-сайта. Выбор домена и хостинга
- •Выбирайте надежный хостинг.
Запрещайте индексирование не предназначенных для пользователей страниц в файле robots.Txt. Не размещайте на страницах текст, который пользователи никогда не увидят. Индексирование сайта
Добавьте сайт в поисковую систему Яндекс (сервис http://webmaster.yandex.ru/addurl.xml ).
Sitemap.
Для удобства вебмастеров и поисковых систем был разработан специальный формат карты сайта — sitemap. Это список ссылок на внутренние страницы сайта, представляемый в формате XML. Этот формат поддерживает и сервис Яндекс.Вебмастер.
В специальном разделе сервиса можно загрузить sitemap для вашего сайта. Это позволит влиять на приоритет обхода роботом некоторых страниц вашего сайта.
Например, если какие-то страницы обновляются гораздо чаще, чем другие, следует указать эту информацию, чтобы робот Яндекса правильно планировал свою работу.
Robots.txt
Robots.txt — файл, предназначенный для роботов поисковых систем. В нем вебмастер может указать параметры индексирования своего сайта как для всех роботов сразу, так и для каждой поисковой системы по отдельности.
Три наиболее важных параметра, которые можно указать в этом файле:
Disallow.
Эта директива используется для запрета от индексирования отдельных разделов сайта. С ее помощью необходимо закрывать от индексирования технические и не представляющие ценности ни для пользователя, ни для поисковых систем страницы.
К ним относятся страницы с результатами поиска по сайту, статистика посещаемости сайта, дубликаты страниц, разнообразные логи, сервисные страницы баз данных и т.д. Подробнее о директиве disallow читайте в специальном разделе помощи (http://help.yandex.ru/webmaster/?id=996567 ), посвященной файлу robots.txt.
Crawl delay
Это параметр, позволяющий указать индексирующему роботу минимальный промежуток времени (в секундах) между обращениями к страницам сайта. Этот параметр полезен для крупных проектов, содержащих десятки тысяч страниц и более.
Поисковый робот Яндекса при индексировании может создать на такой сайт большую нагрузку, что может вызвать перебои в работе сайта и задержки в его работе, поэтому, возможно, вам следует ограничить количество обращений в секунду
В роботе Яндекса используется сессионный принцип работы, на каждую сессию формируется определенный пул страниц, которые планирует закачать робот.
Сессия начинается с закачки robots.txt сайта, если его нет, он не текстовый или на запрос робота возвращается HTTP-код отличный от '200', считается, что доступ роботу не ограничен.
В самом robots.txt проверяется наличие записей, начинающихся с 'User-agent:', в них ищутся подстроки 'Yandex', либо '*' (регистр значения не имеет), причем, если обнаружено 'User-agent: Yandex', директивы для 'User-agent: *' не учитываются.
Если записи 'User-agent: Yandex' и 'User-agent: *' отсутствуют, считается, что доступ роботу не ограничен.
Например, директива Crawl-delay: 2 укажет роботу, что он должен выжидать 2 секунды между обращениями к серверу.
Clean param.
Этот параметр нужен для указания поисковым роботам, какие cgi-параметры в адресе страницы следует считать незначащими. Иногда адреса страниц содержат идентификаторы сессий - формально страницы с разными идентификаторами различаются, однако их содержимое при этом одинаково.
Если таких страниц на сайте много, индексирующий робот может начать индексировать такие страницы, вместо того чтобы скачивать полезное содержимое. Распространенная ситуация параметр sid на форуме или в фотогалерее. Для того чтобы робот Яндекса считал cgi-параметр sid незначащим, нужно написать в robots.txt директиву вида:
Clean-param: sid /forum/viewtopic.php
Подробнее об использовании директивы clean param можно прочитать в разделе помощи http://help.yandex.ru/webmaster/?id=996567#1041216
Яндекс.Вебмастер позволяет просмотреть список проиндексированных URL с вашего сайта. Регулярно проверяйте его, так как даже небольшие ошибки в коде могут привести к значительному росту числа ненужных URL на сайте и могут увеличить нагрузку на сайт.
Поддержка форматов документов и ограничения на индексирование.
Яндекс индексирует основные типы документов, распространенных в Сети. Но существуют ограничения, от которых зависит, как будет проиндексирован документ, и будет ли проиндексирован вообще:
к ухудшению индексирования документов может привести большое количество cgi-параметров в URL, большое количество повторяющихся вложенных директорий и слишком большая общая длина URL.
документы больше 10Мб не индексируются.
flash индексируется, если он не встроен в HTML и страница передается с HTTP-заголовком, содержащим Content-Type: application/x-shockwave-flash;
файлы *.swf индексируются, если на них есть прямая ссылка; индексируется встроенный в HTML с помощью тегов <EMBED> и <OBJECT> или их комбинации.
В документах PDF индексируется только текстовое содержимое. Текст, представленный в виде картинок, не индексируется.
Яндекс корректно индексирует документы Microsoft Office и Open Office. Но следует учитывать, что после выхода новой версии программы внедрение поддержки новых форматов может занять некоторое время.
Если вы переопределили поведение сервера для несуществующих URL, убедитесь, что сервер возвращает код ошибки 404.
Получив код ответа 404, поисковая система удалит данный документ из индекса. Следите, чтобы все нужные страницы сайта отдавали код 200 OK.