Пример использования автоматизированного подхода к мониторингу Интернет-среды для принятия управленческих решений
Скачать PDF | Загрузок: 7
Статья в журнале
Российское предпринимательство *
№ 3-2 (180), Март 2011
* Этот журнал не выпускается в Первом экономическом издательстве
Аннотация:
В статье рассматривается возможность использования технической информации, собранной в автоматическом режиме специальным программным обеспечением в среде интернет, для принятия управленческих решений. Показана важность постоянного мониторинга интернет-среды.
Ключевые слова: внешняя среда предприятия, интернет-среда, мониторинг, рынок товаров и услуг, управленческое решение, автоматизированный подход, сбор и обработка информации
Принятие управленческих решений в современных условиях требует учета большого количества разносторонней информации. Одним из главных источников информации о внешней среде и конкурентах для предпринимателей сегодня становится интернет. Информация, полученная в интернет-среде, имеет преимущества в сравнении с другими источниками, благодаря ее актуальности, доступности и своевременности.
Наряду с этим, существуют некоторые особенности такой информации, сильно затрудняющие ее использование в управленческих целях:
– во-первых, часто информация содержится в неявном виде, и требует предварительного изучения;
– во-вторых, большие объемы информации не позволяют руководителям использовать ее без предварительной обработки. Это обуславливает сложность в организации работы с такой информацией.
Рассмотрим опыт управленческого использования и работы с информацией, полученной в интернете, на примере рекламного интернет-агенства.
Рост количества потребителей интернет-услуг
Одним из важных показателей внешней среды любого предприятия является объем рынка товаров и услуг. Своевременная оценка изменений объема рынка может существенным образом влиять на управленческие решения в области закупок, планирования производства, логистики, и пр. Так в деятельности рекламных интернет-агентств от темпов роста количества потребителей услуг сильно зависят решения в области рекламы и маркетинга, интенсивности и агрессивности конкурентной борьбы, а также другие стратегические и тактические решения.
Общедоступные статистические показатели такие как: количество доменных имен, количество сайтов в различных каталогах и базах, количество пользователей сети интернет и пр., лишь косвенным образом свидетельствуют об изменении объема рынка, не отражая структуру потребительских сегментов. Руководителям веб-студий и интернет-агенств по этим данным невозможно понять, какие услуги стали более востребованы на рынке и на какие услуги больший спрос. В частности, в структуре оборота некоторых интернет-агентств услуга «поисковое продвижение сайта» составляет от 30 до 80%. Оценка динамики рынка по данной услуге является актуальной управленческой задачей.
Алгоритм выявления работ по поисковому продвижению
Для оценки динамики использования технологий поискового продвижения нами разработан алгоритм, позволяющий предположить осуществление работ по поисковому продвижению над интернет-сайтом.
Алгоритм базируется на анализе содержимого двух вспомогательных файлов сайта: robots.txt и sitemap.xml. Файлы не видны пользователям сети и предназначены для роботов поисковых систем.
Файл robots.txt – это текстовый файл, находящийся в корневой директории сайта, в котором записываются специальные инструкции. С помощью этих инструкций специалисты по поисковому продвижению могут запрещать к индексации некоторые разделы или страницы на сайте, указывать главный домен, рекомендовать поисковому роботу соблюдать определенный временной интервал между скачиванием документов с сервера и т.д. [1].
Файл Sitemap.xml − это файл, введенный в 2008 году поисковой системой Яндекс, содержащий дополнительную информацию о страницах, подлежащих индексированию. Он позволяет сообщить индексирующим роботам поисковых систем, какие страницы сайта нужно индексировать, как часто обновляется информация на страницах, а также индексирование каких страниц сайта наиболее важно [2].
Наличие этих файлов на интернет-сайте, а также корректно настроенное их содержимое может косвенно свидетельствовать о проводимых работах по поисковому продвижению.
Мониторинг состояния этих файлов проводится с января 2008 года на постоянной основе специальным программным обеспечением в Интернет-агенстве «ИнтерЛабс» [3]. Сбор информации осуществляется в автоматическом режиме, проверяется код ответа сервера при обращении к файлу.
Выборкой интернет-сайтов, на которых проверяется наличие и состояние данных файлов, служит модерируемый каталога «Яндекс.Каталог» [4] (более 6000 интернет-сайтов). Один раз в месяц проводится последовательное обращение к данным файлам сайтов из базы. Результатом обращения является получение кода ответа сервера.
Полученный результат записывается в базу данных. В любой момент времени руководство компании имеет возможность получить статистику по использованию данных файлов на сайтах в сети интернет, а, следовательно, использовать этот показатель в качестве ориентира о темпах распространения применения технологий поискового продвижения.
Таблица 1
Коды ответов серверов для файла robots.txt на 2009 год
Класс кода
|
Число сайтов
|
% сайтов
|
5xx
|
119
|
0,15
|
4xx
|
45732
|
59,00
|
3xx
|
72
|
0,09
|
2xx
|
31593
|
40,76
|
1xx
|
0
|
0,00
|
Таблица 2
Коды ответов серверов для файла robots.txt на 2010 год
Класс кода
|
Число сайтов
|
% сайтов
|
5xx
|
173
|
0,20
|
4xx
|
36983
|
41,83
|
3xx
|
35
|
0,04
|
2xx
|
51215
|
57,93
|
1xx
|
0
|
0,00
|
Интенсивность использования поискового продвижения
В качестве иллюстрации возможности применения описанных данных сравним коды ответов серверов на декабрь 2009 года с показателями декабря 2010 года (см. табл. 1 и табл. 2 на с. 53). Можно увидеть, что число сайтов, у которых при обращении к файлу robots.txt возвращается код ответа сервера 200 (файл существует и может быть загружен) значительно выросло: 57,93% против 40,7%. Из полученных данных можно сделать вывод, что количество сайтов, использующих технологии поискового продвижения за 2010 год выросло на более чем 17%.
Таблица 3
Использование robots.txt в разных сегментах предпринимательства
Рубрика «Яндекс.Каталог»
|
% сайтов с robots.txt
|
Банки
|
51,38
|
Страхование
|
54,63
|
Реклама
|
58,91
|
Здоровье
|
59,45
|
Продажа автомобилей
|
59,69
|
Экспедирование и перевозка грузов
|
62,61
|
Строительство
|
62,88
|
Юридические услуги
|
66,01
|
Ипотека
|
66,79
|
Загородная недвижимость
|
77,22
|
|
|
Анализ различных рубрик «Яндекс.Каталог» на наличие файла robots.txt (см. табл. 3 на с. 53) свидетельствует о разной интенсивности использования поискового продвижения в разных сегментах предпринимательства, представленного в интернет. Так, например, сайты из рубрики «Банки» имеют robots.txt в 51,38% случаев, тогда как сайты из рубрики «Загородная недвижимость» в 77,22%.
Заключение
Полученные данные на ряду с другими показателями могут быть использованы для оценки динамики роста рынка услуги «поисковое продвижение», а, следовательно, влиять на тактические и стратегические решения рекламных интернет-агенств.
Из всего приведенного примера, можно сделать следующие выводы:
1) интернет-среда позволяет осуществлять сбор и предварительную обработку информации о внешней среде предприятия в автоматизированном режиме;
2) техническая информация, полученная в интернет-среде, может использоваться при анализе внешней среды предприятия, в частности при анализе объема рынка некоторых товаров и услуг;
3) данные, полученные в автоматическом режиме в интернет-среде, могут влиять на принятие управленческих решений, в частности, могут использоваться при планировании продаж, рекламной активности, загруженности производства, логистики и пр.
Источники:
2. Файлы Sitemap [Электронный ресурс]. – Режим доступа: http://help.yandex.ru/webmaster/?id=1007070.
3.Интерлабс [Электронный ресурс]. – Режим доступа: www.interlabs.ru
4. Яндекс. Каталог [Электронный ресурс]. – Режим доступа: www.yaca.yandex.ru.
Страница обновлена: 22.09.2024 в 21:57:43