Основы баннерной рекламы (Петюшкин) - страница 45

Весной 1997 г. другой американский гражданин зарегистрировал на себя несколько интересных доменных имен: encarta.com, visualbasic.com и др. Вам эти названия ничего не напоминают? Счастливчику из Штатов, отхватившему такой лакомый кусочек, теперь они ничего не напоминают, ибо он получил за их переуступку кругленькую сумму от Microsoft. Той же Microsoft пришлось еще раз раскошелиться для получения домена с простеньким именем microsoft-.com. Заметьте, насколько жизненно важен для корпорации Билла Гейтса оказался какой-то маленький, никому не заметный дефис!

Коротко о том, где можно зарегистрировать доменное имя для своего проекта. Раньше вопросом распределения доменных имен, причем в монопольном варианте, занимались Network Solutions в США и Российский научно-исследовательский институт развития общественных сетей (РосНИИРОС) в России. Только от них зависело, сможете вы получить необходимое доменное имя или нет. Чтобы зарегистрировать домен, нужно было оформить специальную заявку, в которой указать направления деятельности, цели и задачи вашей организации, а также аргументировать острую необходимость получения именно такого доменного наименования. В лучшем случае вы получали положительный ответ и, заплатив деньги, могли гордиться звучным названием. Худший вариант подразумевал попадание вашей заявки в так называемый «стоп-лист» – перечень доменных имен, которым было отказано в регистрации. Сейчас распределением доменов занимаются несколько компаний как у нас в стране, так и за рубежом. Вследствие чего цены на домены заметно упали, а процедура подачи заявки и требования к заказчику стали менее строгими.

Подготовка интернет-проекта к индексированию поисковыми системами

Как было сказано в предыдущей главе, регистрация интернет-проекта в поисковых системах и каталогах ресурсов является одним из наиболее эффективных способов привлечения посетителей. Однако второй метод в большинстве случаев зависит исключительно от того, как устроена процедура занесения информации о ресурсе в базу данных каталога, а подход к индексированию Web-документов поисковиками с полной уверенностью можно назвать индивидуальным и вполне предсказуемым. Регистрируясь в каталоге, пользователь вносит в установленные формы данные о сайте так, как он хочет. Однако далеко не всегда информация о ресурсе будет отображена впоследствии в каталоге в первозданном виде: многие подобные серверы по-своему редактируют описание ресурсов, руководствуясь при этом собственными доводами.

Поисковые системы, в отличие от встроенных в каталоги поисковых двигателей, ищут не в пределах определенной серверными настройками базы данных, а по всей сети, выводя страницы, находящиеся в их индексах. Этим занимаются так называемые поисковые роботы (spiders, wanderers, robots). При обращении к серверу робот проверяет наличие специального файла robots.txt в его корневой директории, в котором могут быть вручную установлены правила индексирования тех или иных документов узла. Однако не все роботы «умеют» читать указанную в этом файле информацию; часть из них не поддерживает специальный стандарт описания правил индексирования файлов Standard for Robot Exclusion. К сожалению, сегодня не все Web-мастера и координаторы интернет-проектов имеют представление об этом стандарте, к тому же не каждый системный администратор, настраивающий Web-сервер, придает применению правил описания для поисковых роботов должное внимание. Однако дальнейший разговор пойдет не о стандарте Standard for Robot Exclusion, что требует изучения специальных параметров описания правил и работы с Web-сервером, а о том, как правильно подготовить страницы своего интернет-проекта для индексирования поисковыми роботами.