Если задаться целью и проанализировать официальный блог гугла, блог Мэтта Катса (aka. GoogleGuy), а так же некоторые другие официальные источники, то без труда можно составить вполне четкое представление о том, что нельзя, что можно и что нежелательно делать при оптимизации своего веб-ресурса под поисковую систему Google.
В этой статье мы постараемся аккумулировать все те осколки знаний касающихся принципов работы алгоритма Гугла, что разбросаны на вышеназванных ресурсах, и поможем понять начинающим веб-мастерам, как правильно вести себя при раскрутке своего сайта белыми методами (а они - самые надежные и потенциально приведут к успеху предприятия).
Разумеется, обо всем сказать не получится - алгоритм Гугла постоянно модифицируется и идет в ногу со временем - то, что было правда в конце 2006 года, во второй половине 2007 представляется уже сомнительной информацией. Но все же! Система работает по определенным принципам и эти принципы, хоть и с небольшими нюансами, все же остаются неизменными - а коль так, то они заслуживают пристального внимания. Именно на них-то мы и будем опираться.
И еще.
Перед тем как начать наше повествование, хотим обратим Ваше внимание на то, что на bigffozy.com имеется немалое количество материалов в виде статей, которые рассматривают многие из тех моментов, что описаны ниже, причем - в более развернутом виде! Не поленитесь заглянуть в
раздел статей - там Вы найдете много чего интересного и весьма полезного.
Ну вот и все. Поехали.
1. Гугл большое значение придает тому, как долго сайт находится в сети - это можно определить еще и как "историческое" знание о сайте.
Достаточно упомянуть такой фильтр, как
Песочницу
(Sandbox) или же часть алгоритма под названием TrustRank, что бы без обиняков удостовериться в справедливости доминирования "исторического" момента, который, в свою очередь, влияет на благосклонное отношение поисковика к любому веб-ресурсу.
Чем дольше сайт существует, тем больше Гугл ему доверяет и, как следствие, чаще дает зеленый свет - это справедливо не только в отношении поисковых запросов, но и затрагивает ранжирование.
Помимо примитивного "исторического" подсчета существования сайта, Гугл немалое значение придает и таким данным (а их можно то же отнести к хронологической составляющей алгоритма), как:
-
продолжительность нахождения контента на сайте (дата появления контента);
- сколько времени прошло с того момента, как часть контента (например, статья) была процитирована другим ресурсом. Иными словами, учитывается не только появление статьи на другом сайте, но и момент ее появления;
- количество сайтов, которые процитировали статью - причем, это делается не только по объему цитирований, но и по промежутку времени между ними.
Из сказанного можно сделать вывод, что Веб-мастеру важно подогнать свои действия под "исторический" алгоритм Гугла. Например, если появилась идея создать сайт, но пока нет достойного контента, то все равно не стоит откладывать регистрацию домена. Загрузка на сервер той малости, что уже сейчас имеется в наличии, будет хорошим началом Вашего предприятия. Появление же
хорошего контента в будущем и последующее размещение его на сайте, который уже дал знать о себе гуглу, только прибавит очков в Вашу пользу, т.е. временная константа работает на Вас.
2. Алгоритм Гугла очень четко отслеживает объемы обновлений, которые происходят на сайте.
Если быть предельно точным, то содержание сайта и то, насколько часто меняется его контент, представляет интерес для поисковика только по той причине, что Гугл всеми силами стремится исключить спам из результатов поиска - следовательно, фактор контроля за динамическим контентом, является превалирующим. Веб-мастеру необходимо знать о том, что положение пункта 0128 патента Гугл указывает на то, что алгоритм системы заточен на фильтрацию сайтов у которых происходят резкие скачки в контентном наполнении (имеется в виду увеличение или уменьшение количества страниц).
Наложение пеналти на сайт за подобные, ничем не обоснованные (по мнению алгоритма), изменения количества страниц, является основной мерой принуждения Веб-мастеров к соблюдению правил честной раскрутки ресурсов. Вышеописанный фильтр направлен на борьбу с дорвеями, которые в начале эры Гугла очень сильно подпортили кровь его создателям.
В этот же раздел можно отнести и ту часть алгоритма, что занята
борьбой со своппингом (swapping), т.е. подменой контента. Исчезновение оригинального текстового наполнения на сайте, при наличии весомых внешних ссылок на радикально модифицированные страницы имеющие, при этом, хороший Page Rank, будет расценено именно в том духе, что владелец сайта решил заняться спамом.
В заключении этого пункта отметим следующее. Гугл анализирует и запоминает:
-
как часто менялись страницы;
- существенность этих изменений;
- как меняется плотность ключевых слов на странице;
- изменялись ли якорные тексты ссылок.
3. Как известно, Гугл оперирует значениями Page Rank для того, что бы определить насколько весома страница и, какое место она займет в серпе.
Если быть предельно кратким, то Веб-мастеру в связи с этим, необходимо зарубить на носу следующее:
- не желательно очень часто ссылаться на сайты, имеющих более низкий PR т.к. подобное усердие может быть расценено, как спам-метод раскрутки.
Это не значит, что нельзя ссылаться на молодые сайты, которые еще не успели набрать оборотов - просто делать это надо с умом, а не лихо раздавать ссылки направо и налево.
- нельзя ссылаться на сайты у которых PR равен 0, т.к. это именно те сайты, которые находятся в черном списке Гугла (они либо оштрафованы, либо запрещены).
4. Домен, на котором находится сайт, очень о многом говорит Гуглу - поэтому, негативная информация о домене может затруднить раскрутку сайта (причем очень существенно).
При выборе домена обращайте внимание не только на его благозвучность, но и на информацию о бывшем владельце (если такой, конечно, имелся). Так же, по (пока) до конца не проверенным данным, факт покупки домена на короткий срок, является основанием для того, что бы Гугл начал относиться к нему с опаской и подозрением. Обычно, именно дорвейщики, спамеры и те, кто не собираются заниматься развитием сайта, заводят домены на непродолжительное время - регистрируйте домен с таким расчетом, что б система вас не заподозрила в вышеназванных вещах (срок больше года, по всей видимости, будет вполне приемлем).
5. Репутация хостинг-компании - еще один аспект, который учитывается Гуглом.
Хостер хостеру рознь! Существуют "белые" хостинг компании, которые признаны в мире, а есть и такие, которые подпадают под категорию "серых". Например, есть хостеры, которые готовы без малейших препятствий размещать у себя дорвеи или же запрещенные сайты (скажем детскую порнографию и проч.) - к таким хостерам Гугл применяет санкции и, если Ваш сайт находится на неблагонадежном хосте, то эти санкции автоматически коснуться и Вас. С хостингом ошибаться не стоит!
На этом, пожалуй, и все. Думается что данного материала будет достаточно для порождения новых вопросов - на них мы с радостью ответим на
нашем форуме.
Отсюда вполне легально можно брать статьи, пожалуйста, с указанием ссылки на источник :-)
(ссылка на тематический ресурс будет и вам полезна и нам будет приятно)