Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Pitannya_do_Berezka.doc
Скачиваний:
1
Добавлен:
18.12.2018
Размер:
71.68 Кб
Скачать

Питання до Березка:

1.Пошукові системи:

Загальні принципи

Пошуковий сервер працює наступним чином:

  • Отриманий від користувача запит піддається морфологічному аналізу. Генерується інформаційне оточення кожного документа, що міститься в базі (зворотній індекс).

  • Отримані дані передаються в якості вхідних параметрів до спеціального модулю ранжирування. Відбувається обробка даних по всіх документах, в результаті чого, для кожного документа обчислюється власний рейтинг, що характеризує релевантність запиту, введеного користувачем, і різних складових цього документа, що зберігаються в індексі пошукової системи.

  • Залежно від вибору користувача цей рейтинг може бути скориговано додатковими умовами (наприклад, так званий «розширений пошук»).

  • Далі генерується сніппет, тобто, для кожного знайденого документа з таблиці документів витягуються заголовок, коротка анотація, найбільш відповідна до запиту і посилання на сам документ, причому знайдені слова виділено грубішим шрифтом.

  • Отримані результати пошуку передаються користувачеві у вигляді SERP (Search Engine Result Page) - сторінки видачі пошукових результатів.

Як видно, всі ці компоненти тісно пов'язані один з одним і працюють у взаємодії, утворюючи чіткий, достатньо складний механізм роботи пошукової системи, що вимагає величезних витрат ресурсів.

Принципи роботи глобальних пошукових систем (Яндекс Google)

Якщо задатися метою й проаналізувати офіційний блог гугла, блог Мэтта Катса (aka. GoogleGuy), а так само деякі інші офіційні джерела, то без праці можна скласти цілком чітке уявлення про те, що не можна, що можна й що небажано робити при оптимізації свого веб-ресурсу під пошукову систему Google.

У цій статті ми постараємося акумулювати всі ті уламки знань, які стосуються принципів роботи алгоритму Гугла, які розкидані на вищезгаданих ресурсах, і допоможемо зрозуміти починаючим веб-майстрам як правильно поводитися при розкручуванні свого сайту білими методами (а вони - надійні й потенційно приведуть до успіху підприємства).

Зрозуміло, про все сказати не вийде - алгоритм Гугла постійно модифікується і йде в ногу з часом - те, що було правда наприкінці 2006 року, у другій половині 2007 представляється вже сумнівною інформацією. Але все ж таки! Система працює по певних принципах і ці принципи, хоч і з невеликими нюансами, все-таки залишаються незмінними - а коли так, то вони заслуговують на пильну увагу. Саме на них ми й будемо опиратися.

І ще. Перед тим як почати наше оповідання, хочемо звернути Вашу увагу на те, що на bіgffozy.com є чимала кількість матеріалів у вигляді статей, які розглядають багато з тих моментів, що описані нижче, причому у більше розгорнутому виді! Не полінуйтеся заглянути в розділ статей - там Ви знайдете багато чого цікавого й досить корисного.

Ну от і все. Поїхали.

 1. Гугл велике значення надає тому, як довго сайт перебуває в мережі - це можна визначити ще і як "історичне" знання про сайт. Досить згадати такий фільтр як Пісочниця (Sandbox) або ж частину алгоритму за назвою TrustRank, щоб без натяків упевнитися в справедливості домінування "історичного" моменту, що в свою чергу, впливає на прихильне відношення пошукача до будь-якого веб-ресурсу.

Чим довше сайт існує, тим більше Гугл йому довіряє й як наслідок, частіше дає зелене світло - це справедливо не тільки відносно пошукових запитів, але й стосується ранжирування.

Крім примітивного "історичного" підрахунку існування сайту, Гугл чимале значення надає й таким даним (а їх можна теж віднести до хронологічної складової алгоритму) як:

 - тривалість знаходження контенту на сайті (дата появи контенту);

 - скільки часу пройшло з того моменту, як частина контенту (наприклад стаття) була процитована іншим ресурсом. Іншими словами, ураховується не тільки поява статті на іншому сайті, але й момент її появи;

 - кількість сайтів, які процитували статтю - причому, це робиться не тільки по обсязі цитувань, але й по проміжку часу між ними.

Зі сказаного можна зробити висновок, що Веб-майстру важливо підігнати свої дії під "історичний" алгоритм Гугла. Наприклад, якщо з'явилася ідея створити сайт, але поки немає гідного контенту, то однаково не варто відкладати реєстрацію домена. Завантаження на сервер тієї малості, що вже зараз є в наявності, буде гарним початком Вашого підприємства. Поява ж гарного контенту в майбутньому й наступне розміщення його на сайті, що вже сповістив про себе гуглу, тільки додасть очків на Вашу користь, тобто тимчасова константа працює на Вас.

 2. Алгоритм Гугла дуже чітко відслідковує обсяги відновлень, які відбуваються на сайті. Якщо бути максимально точним, то зміст сайту і те, наскільки часто змінюється його контент, становить інтерес для пошукача тільки з тієї причини, що Гугл всіма силами прагне виключити спам з результатів пошуку - отже, фактор контролю за динамічним контентом є переважаючим. Веб-майстру необхідно знати про те, що положення пункту 0128 патенту Гугл (докладна стаття із цього приводу перебуває отут: http://www.toprankresults.com/onlіnemarketіng/2005/05/google-patent-revіew-for-seo.html) указує на те, що алгоритм системи заточений на фільтрацію сайтів у яких відбуваються гості зміни в контентному наповненні (мається на увазі збільшення або зменшення кількості сторінок). Накладення пеналті на сайт за подібні, нічим не обґрунтовані (на думку алгоритму) зміни кількості сторінок, є основним примусовим заходом до дотримання правил чесного розкручування ресурсів веб-майстрами. Вищеописаний фільтр спрямований на боротьбу з дорвеями, які на початку ери Гугла дуже сильно підпортили кров його творцям.

У цей же розділ можна віднести й ту частину алгоритму, що зайнята боротьбою зі своппінгом (swappіng), тобто підміною контенту. Зникнення оригінального текстового наповнення на сайті, при наявності вагомих зовнішніх посилань на радикально модифіковані сторінки, що мають при цьому, гарний Page Rank, буде розцінено саме в тім дусі, що власник сайту вирішив зайнятися спамом.

Яндекс

Любая уважающая себя поисковая система предлагает веб-мастерам свой вариант правильной оптимизации сайта - Яндекс же, как самый авторитетный поисковик рунета (так, наверное, сейчас еще можно сказать), не является исключением из этого правила. Зайдя, например, по этому адресу (http://rules.yandex.ru/termsofuse.xml) у нас появляется возможность в весьма официальной форме прочесть чрезвычайно много полезной информации - это "Лицензия на использование поисковой системы Яндекса". Из этого документа мы узнаем, к примеру, не только то, что Яндекс это некоммерческая поисковая система, которая не отвечает за содержимое страниц проиндексированных ее ботами - в "Лицензии на использование" имеются еще и пункты, которые напрямую затрагивают то, что сейчас принято называть SEO - на этом моменте и остановим свое внимание.  Во-первых, в Лицензии вполне лаконично расталковано, что в глазах Яндекса является спамом, а что им не является. Читаем - " <Поисковый спам> - это попытки обмана поисковой системы и манипулирования ее результатами с целью завышения позиции сайтов (страниц) в результатах поиска. Сайты, содержащие <поисковый спам>, могут быть понижены при ранжировании или исключены из поиска Яндекса из-за невозможности их корректного ранжирования". Попытки же обмана поисковика, могут быть следующими (официальная трактовка Яндекса):

  • - автоматическое генерирование текста (например, дорвеи);

  • - создание сайтов, отдающих разный контент пользователю и роботам поисковых систем (клоакинг);

  • - создание страниц и сайтов, единственной целью которых является перенаправление пользователя на другой ресурс (редирект). К этому пункту еще относится и реклама на сайте не содержащем контент - т.е. добровольное перенаправление пользователя на сайт рекламодателя.

  • - создание на сайте условий позволяющих манипулировать ссылочным ранжированием, т.е. это сайты, ставящие ссылки исключительно для обмана поисковых систем (искусственное повышение релевантности) и сайты ссылающиеся исключительно друг на друга (т.н. линкфармы).

Все вышеперечисленные манипуляции будут расценены Яндексом как спам, ну а за спам, сами понимаете что будет - бан, песимизация и прочие неприятные санкции. Поэтому начинающему сеошнику, для того что бы эффективно раскрутить свой ресурс в Яндексе, необходимо не отклоняться от Яндексовских правил. Разумеется, есть огромное количество лазеек, с помощью которых можно обмануть поисковик - но это тема для отдельной статьи, а точнее для серии отдельных публикаций. 

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]