Большинство пользователей интернета ищут нужную им информацию через поисковые сервера, поэтому именно такие сервера и пользуются наибольшей популярностью. Например Рамблер ежедневно посещает около 100 тыс. человек. На Yahoo! вообще когда-то приходилось около 25% всех доходов от рекламы в интернете.
По некоторым данным, поисковые системы могут вам дать до 30% посетителей. Неплохо, а? Но это только в том случае, если вы имеете представление о том, как правильно в них зарегистрироваться. Прочитав изложенное ниже, вы поймете, как это сделать.
Многие поисковые системы объединены с каталогами - например, Yahoo!, Russia on the net или с рейтингами, как Рамблер. Поэтому, регистрируясь в поисковой системе, не забывайте про каталог или рейтинг, они могут дать вам большее число посетителей, чем непосредственно система поиска, да и региться в них быстрее.
Любая поисковая система представляет собой огромное хранилище информации. Собирают эту информацию специальные роботы - так называемые Spiders (пауки-ползуны) или Bots. Они ползают по узлам всемирной паутины и собирают информацию о каждом из них. Периодически робот возвращается на свой сервер и отдает ему собранную информацию. Там эта информация приводится в надлежащий вид, заносится в специальную базу данных и после этого может быть найдена пользователем поисковой системы.
Собственно говоря, сама регистрация в поисковике заключается в том, что робот получает приказ в ближайшее время проиндексировать данные о вашей странице. Иногда для этого требуется достаточно длительное время - до месяца.
Любой робот, как известно, - туповатое создание, поэтому
вам необходимо оказать ему посильную помощь. Делается это
посредством параметров "KEYWORDS" и "DESCRIPTION" тага META.
Вы должны вставить в HTML код страницы такие примерно
строки:
< HEAD >
.......
< META
NAME="KEYWORDS"
CONTENT="Здесь указываются (через запятую)
ключевые слова" >
< META
NAME="DESCRIPTION"
CONTENT="Здесь содержится краткое
описание вашего сайта" >
.......
< /HEAD >
Ключевые слова повышают вероятность того, что "паук" внесет в базу данных поисковой машины не первые предложения или какой-либо другой кусок текста с ваших страниц, а именно те слова, которые вы напишете и которые в наибольшей степени будут соответствовать содержанию вашей страницы. Рекомендуется вводить не более 20-30 ключевых слов.
Основная проблема поисковых систем - в их базах данных содержатся сотни тысяч документов. В результате после каждого запроса пользователю выдается огромный список сайтов, в которых найдено что-либо общее с его запросом. Вероятность же того, что ваш ресурс будет находиться в начале этого списка, обычно чрезвычайно мала, а кто же станет искать вас в гуще многочисленных документов, если вы значитесь там, скажем, под номером 2999? Таким образом, ваша задача - добиться того, чтобы ваш ресурс показывался одним из первых.
Что для этого нужно? Вот список советов по этому поводу:
Существует еще один специализированный параметр тага META, который служит для управления маршрутом "паука". Это параметр "ROBOTS", он может принимать значения index/noidex, folow/nofollow: index/noindex индексировать/не индексировать текст документа; follow/nofollow следовать/не следовать далее по ссылкам, содержащимся в документе.
Например
< HEAD >
........
< META
NAME="ROBOTS" CONTENT="index,nofollow"
>
........
< HEAD >
В этом случае "паук"
проиндексирует содержание страницы, и не пойдет дальше ни по
одной из ссылок с данной страницы. Зачем это надо? Ну,
например, на данной странице расположены ссылки на полезные
ресурсы, которые на вашем сервере не лежат. Неужели вы хотите,
чтобы робот ушел по одной из них и тем самым не стал
индексировать ваш сайт? Ответ понятен... Словом, таг этот
весьма и весьма полезен. Большинство самых популярных (хотя и
не все) поисковых машин его поддерживают.
Упомяну о еще одной тонкости. Некоторые
поисковые роботы, например, робот Lycos, не проиндексируют ваш сайт, если
в вашей корневой директории нет файла с именем "robots.txt". В
таких файлах обычно хранятся "спецуказания" для роботов.
Например, если на вашем локальном диске есть некоторые
директории, которые индексировать точно не надо, например,
/cgi-bin/ и /basedocs/, вы можете сделать себе такой
robots.txt:
User-Agent: *
Disallow:
/cgi-bin/
Disallow: /basedocs/
В этом случае все
роботы (звездочка после Юзерагента, можно написать и
конкретого робота) должны будут индексировать ваш сайт, кроме
директорий /cgi-bin/ и /basedocs/. Если вам нужно
проиндексировать весь сайт целиком, оставьте пустое место
после DisAllow: . На естественный вопрос, зачем вообще нужен
robots.txt существует такой ответ: некоторые сервера не
нуждаются в индексации их содержимого, поскольку иногда
присутствие поискового робота мешает обычным пользователям
обращаться к серверу. Или как уже было сказано, вам совершенно
не нужно, чтобы индексировалась ваша база данных, CGI
директория или страница, содержимое которой постоянно
обновляется.
Таким образом, теперь вы знаете, как правильно зарегистрироваться в поисковой машине.
Стоит упомянуть о том, что на некоторых сайтах вам предлагают, заполнив одну форму, зарегистрировать вашу страничку во многих поисковиках сразу. Например это можно сделать на сайте Артемия Лебедева http://www.design.ru/free/addurl/. Хотя этот способ наименее трудоемкий, он не даст таких же результатов, какие вы получите, зарегистрировав свою страничку самостоятельно. Объясняется это тем, что большинство искалок плохо относится к такому добавлению.
Идеальный вариант - зарегистрировать каждую страницу своего сайта во всех поисковиках "вручную". Хотя многие поисковые системы обещают, что достаточно ввести только адрес первой страницы сайта, а затем робот проиндексирует все остальные, но реально роботы иногда не доходят до отдельных страниц вашего сайта и их не регистрируют.
Русскоязычную страничку по понятным причинам не имеет особого смысла регистрировать в иностранных поисковиках, однако на Yahoo! и AltaVista стоит зарегиться по причине их огромной популярности. Некоторые российские пользователи ими пользуются. Если же у вас англоязычный сайт, то вам как раз надо регистрироваться в иностранных поисковых системах. Хотя есть еще много иностранных поисковиков, вам достаточно зарегистрироваться в этих, Это относится и к российским поисковикам - все пользуются Рамблером, Яндексом и Апортом, остальные поисковики гораздо менее популярны( подумайте, какие из них используете вы).
Но если уж вам так хочется зарегиться везде, где только можно, для этого все-таки лучше использовать автоматические регистраторы: