Анатомія пошукової машини
Алгоритми пошукових машин постійно міняються, як, наприклад, антивірусне програмне забезпечення. Адже в світі постійного з'являються нові віруси, тому вони і повинні постійно удосконалювати і вносити корективи до своїх програм. Аналогічно йде справа і з пошукачами: все на цьому світі швидко міняється, а інтернет-сфера ще швидша.
Проте, існує певний набір правив, по яких пошукачів ранжирують сайти, яких повинен дотримуватися кожен вебмастер в нелегкому процесі пошукової оптимізації. Звичайно, немає 100% гарантій, що все це працює зараз або вже з'явилися нові правила гри, але ідея залишається колишньою. Міняються лише деталі, як мовиться.
Але якщо ми не можемо застосувати для оптимізації стандартний набір правив, то що ж нам робити? Вихід тут в тому, що не потрібно всіма силами прагнути знатися на хитрощах роботи пошукової машини, а просто зрозуміти яким чином вони працюють. У цих самих хитрощів є своя логіка роботи, яку досить просто обчислити, що і є їх недоліком.
Так що ж насправді необхідно?
Для досягнення високих позицій в рейтингу (та ще на довгий час) слід розуміти, що пошуковий робот - це у своєму роді жива істота. Звичайно, я при цьому не маю зважаючи на, що у них є мізки, хай це залишиться для письменників-фантастів. Проте їх поведінка і способи роботи багато в чому схожі на роботу цього самого мозку.
А зараз зупинимося на розгляді деяких функцій їх мозку. Загалом можна сказати, що їм властива така специфіка, як (якщо прийняти інтернет за мир з множиною доріг) ходити різними шляхами, слідуючи вказівкам встановлених знаків і збираючи всіляку інформація про цю дорогу. Потім вони направляють зібрану інформацію групі серверів, які вже по своїх специфічних алгоритмах визначають її важливість для внесення до своїх баз.
По яких принципах працюють ці алгоритми? Спершу вони створюються людьми, які чудово знаються на принципах роботи інтернету і інформації, яка в нім міститься. А оскільки усесвітня павутина постійно змінюється, то ці самі люди і вносять необхідні корективи до пошукових алгоритмів. За своєю суттю пошукову машину слід розглядати, як істота, яка постійно збирає інформацію, зберігає її, а потім сортує виходячи з її важливості і з великим задоволенням відсіває непотрібну. Тільки от як це вона робить і виходячи з яких принципів - до ладу не ясно.
Придивимося ближче
Розуміння того, що із себе вдає пошукова машина насправді, спробуємо з'ясувати порівняно з анатомією людину. Хай машина і не дихає, але вона містить багато схожого, що необхідне їй для її віртуального життя. А полягає вона з наступного:
Легені: Даний орган у пошукової машини, як і більшість життєво важливих органів, розташовані усередині величезних data-центров (сервера, спеціально призначені для зберігання інформації). Як і організмі людини, легені ми не вважаємо за дуже важливий орган, проте розуміємо, що без них не обійтися і потрібно підтримувати їх здоровими.
Руки і ноги: Уявимо собі, що руки і ноги пошукової машини не що інше, як посилання на ресурси, які вона щедро видає по запиту користувача. За допомогою цього органу ми можемо знайти все, що нам потрібно і отримати покажчик у вигляді посилання на необхідний ресурс. Також, як і тіло людини спочатку було створене для руху і дослідження навколишнього світу, аналогічно і пошукові машини спочатку запрограмовані досліджувати усесвітню павутину.
Очі: Очима пошукової машини є так звані павуки (ще їх називають роботами або краулерамі). Ці самі павуки постійно проглядають інтернет для пошуку нових сайтів і стежать за змінами на вже проіндексованих. В даному випадку павуки повзають по сторіночках сайту по його внутрішніх посиланнях (як по шляхах), аналогічно людині, яка на своєму шляху бачить множину дорогий для свого пересування. На щастя для нас, пошукові роботи рухаються по оптико-волоконным проводах, ось тому вони можуть подорожувати по інтернету із швидкістю світла. Це-то і дозволяє їм відвідати всі інтернет-сторіночки, які попадаються їм на шляху.
Мозок: Мозок пошукової машини виконує ті ж функції, що і мозок людини: містить цілий набір функцій для управління організмом свого господаря. Також у мозку має бути свій інстинкт, який повинен знати про роботу і постійно контролювати всі органи і системи. Ось тому пошуковій машині ніяк не обійтися без цього самого мозку, який їй і допомагає вижити на цьому ворожому світі (хай в чомусь і віртуальному).
Інстинкт: За допомогою інстинкту пошукові машини мають набір ключових функцій, таких як проглядання сайтів і фільтрація даних, які потрібно або не потрібно індексувати. Вони запрограмовані ігнорувати деякі типи файлів, не відповідних певним критеріям. Як мені здається, в інстинкті пошукової машини головне - це механізм або алгоритм, за допомогою якого вона індексує сайти.
Знання: Пошукові машини чудово обізнані про всі тонкощі індексації сайтів. Ті знання, якими вони володіють, йдуть далеко попереду знань всіх користувачів, вебмастеров і оптимізаторів. Пошукова машина знає безліч методів сортування, представлення даних, і, природно, ще і має свій специфічний набір хитрощів і прийомів.
Поки пошуковий робот подорожує по інтернету і індексує веб-сервера-сторіночки, паралельно він посилає назад в свій data-центр зібрані їм дані. Саме у цьому центрі дані обробляються згідно алгоритмів, а спам-фільтри відсівають непотрібне.
Подібно до того, як ми аналізуємо інформацію із статті в газеті згідно своєму баченню світу, так і пошукачів обробляє і ранжирують дані в строгій відповідності зі своїми законами і розумінням роботи інтернету.
Вивчення: Оскільки пошукова машина ранжирує веб-сервера-сторіночки згідно своєму баченню і розумінню законів функціонування інтернету, а ці правила постійно змінюються, то пошукові алгоритми постійно змінюються. Ось тут-то якраз і потрібний механізм адаптації або самонавчання пошукача.
В той же час, наряду в здібностях проглядати сторіночки, пошукові роботи повинні уміти визначати і карати спроби забороненого розкручування сайту. При цьому прихильно відноситься до чесних вебмастерам і оптимізаторів.
Ось приклади тих областей, в яких пошукові машини так часто люблять міняти свої алгоритми:
Визначення рельовантності контента того сайту, на який вона знайшла посилання;
Здатність виявляти інформацію, яка міститься в нових типах даних, наприклад, бази даних, flash і тому подібне
Розуміння нечесних методів розкручування сайтів, таких як розміщення невидимого тексту, посилань і тому подібне Дані технології розглядаються пошуковою машиною як спам, а спіймані на цьому ресурси потрапляють в так званий чорний список
Вивчення отриманих даних, виявлення недоліків в індексації, що приводить в дію механізм зміни алгоритму убік ефективнішого визначення рельовантності сайту.
Здібність до вивчення і адаптації до навколишнього інтернет-простору спочатку закладається при розробці алгоритмів роботи пошукової машини. Ну і, само собою, залишається актуальною до наступного оновлення алгоритму.
Від теорії до практики
Все, про що було сказано вище, стосувалося лише аспектів роботи пошукової машини. А ось як ці знання застосувати для розкручування сайту? Вся річ у тому, що для правильного вибору стратегії розкручування необхідно добре розуміти, яким чином працює ця сама пошукова машина: збирає інформацію, ранжирує сайти і так далі
Свого часу, коли одним з основних методів розкручування було розміщення великої кількості ключових слів на сторінках сайту, багато вебмастера створювали цілі співтовариства з сайтів, щоб взаємним обміном посилань досягти високих позицій в рейтингах. А ось чи працює ця тактика сьогодні? Працює, тільки результат швидше за все буде тимчасовим і короткостроковим.
<Адже p> пошукова машина, як і людина, хоче вижити в агресивному навколишньому середовищі. Тому, якщо результати їх роботи будуть поганими (а ось якраз нечесні методи розкручування часто ведуть до видачі непотрібною відвідувачеві інформації), то вони поволі, але упевнено перестануть існувати. Адже при постійно зростаючій конкуренції еволюціонувати украй необхідно.
Для прикладу, користувачеві значно зручніше і простіше знайти сайт з множиною контента, який йому необхідний. Як правило, на таких сайтах він часто оновлюється, що дозволяє сайту бути актуальним. Тому робіть виводи.
Важливим моментом залишається і обмін посиланнями. У даному питанні намічається тенденція до зниження рельовантності зворотних посилань, а обмін посиланнями між сайтами різних тематик і зовсім малоефективний. Але якщо ж ви все ж таки вирішите поставити зворотні посилання, то обов'язково переконаєтеся, що вони ведуть на споріднені з тематики сайти.
Дана стратегія добре працює як для залучення відвідувачів, так і для підвищення рельовантності сайту. Адже багато користувачів переходять з сайту на сайт по внутрішніх посиланнях. А якщо вони ще і стоять на авторитетному і відвідуваному ресурсі, то це тільки додатковий плюс.
І наприкінці.
Сам собою напрошується вивід робити ставу на майбутнє. І відношення до пошукової машини як живому організму (хай і у загальних рисах) допоможе вибрати правильну тактику. Ось коли вона в черговий раз прийде на ваш сайт, то нагодуєте її смачним новим контентом, новими розділами і вона обов'язково ще до вас повернеться. А ось негостинних сайтів вони не люблять, як і бути обдуреними нечесними господарями. У роботів пам'ять відмінна.
Джерело: Codeguru. Com. Ua "Сайт про програмування і веб-сервер-дизайн"
|