Развитие и аккумулирование интеллектуального капитала в условиях информационной экономики посредством изучения специальных экономико-математических моделей
Скачать PDF | Загрузок: 7
Статья в журнале
Российское предпринимательство *
№ 10 (58), Октябрь 2004
* Этот журнал не выпускается в Первом экономическом издательстве
Аннотация:
Окончание. Начало в № 9 2004. Рассмотрим представление и обработку нечетких знаний: источники неопределенности в знаниях и типологию нечеткости; подход на основе условных вероятностей (на базе теоремы Байеса). До сих пор мы не принимали во внимание тот факт, что в реальных условиях знания, которыми располагает человек, всегда в какой-то степени неполны, приближены, ненадежны. Тем не менее, людям на основе таких знаний все же удается делать достаточно обоснованные выводы и принимать разумные решения. Следовательно, чтобы интеллектуальные системы были действительно полезны, они должны быть способны учитывать неполную определенность знаний и успешно действовать в таких условиях.
Ключевые слова: информационная экономика, интеллектуальный капитал
Окончание. Начало в 9/2004
Рассмотрим представление и обработку нечетких знаний: источники неопределенности в знаниях и типологию нечеткости; подход на основе условных вероятностей (на базе теоремы Байеса). До сих пор мы не принимали во внимание тот факт, что в реальных условиях знания, которыми располагает человек, всегда в какой-то степени неполны, приближенны, ненадежны. Тем не менее, людям на основе таких знаний все же удается делать достаточно обоснованные выводы и принимать разумные решения. Следовательно, чтобы интеллектуальные системы были действительно полезны, они должны быть способны учитывать неполную определенность знаний и успешно действовать в таких условиях.
Неопределенность может иметь различную природу. Наиболее распространенный тип недостаточной определенности знаний обусловлен объективными причинами:
‑ действием случайных и неучтенных обстоятельств;
‑ неточностью измерительных приборов;
‑ ограниченными способностями органов чувств человека;
‑ отсутствием возможности получения необходимых свидетельств.
В таких случаях в оценках и рассуждениях прибегают к использованию вероятностей, допусков и шансов (например, шансов победить на выборах).
Другой тип неопределенности, можно сказать, обусловлен субъективными причинами:
‑ нечеткостью содержания используемых человеком понятий (например, «толпа»);
‑ неоднозначностью смысла слов и высказываний (например, «ключ» или знаменитое «казнить нельзя помиловать»).
Неоднозначность смысла слов и высказываний часто удается устранить, приняв во внимание контекст, в котором они употребляются, но это тоже получается не всегда или не полностью. Таким образом, некоторая неопределенность и нечеткость имеющихся знаний – скорее, типичная картина при анализе и оценке положения вещей, при построении выводов и рекомендаций, чем исключение. В процессе исследований по искусственному интеллекту для решения этой проблемы выработано несколько подходов.
Самым первым можно считать использование эвристик в решении задач, в которых достаточно отдаленный прогноз развития событий невозможен (как, например, в шахматной игре). Но самое серьезное внимание этой проблеме стали уделять при создании экспертных систем, и первым здесь был применен вероятностный подход (PROSPECTOR), поскольку теория вероятностей и математическая статистика в тот период были уже достаточно развиты и весьма популярны.
Однако проблемы, возникшие на этом пути, заставили обратиться к разработке особых подходов к учету неопределенности в знаниях непосредственно для экспертных систем (коэффициенты уверенности в системах MYCIN и EMYCIN).
В дальнейшем исследования в этой области привели к разработке особой (нечеткой) логики, основы которой были заложены Лотфи Заде.
В решении рассматриваемой проблемы применительно к экспертным системам, построенным на основе правил (систем продукций), выделяются четыре основных вопроса: а) как количественно выразить достоверность, надежность посылок?
б) как выразить степень поддержки заключения конкретной посылкой?
в) как учесть совместное влияние нескольких посылок на заключение?
г) как строить цепочки умозаключений в условиях неопределенности?
На языке продукций эти вопросы приобретают следующий смысл.
Будем обозначать ct(А) степень уверенности в истинности посылки (свидетельства) А (от англ. certainty ‑ уверенность). Тогда первый вопрос заключается в том, как количественно выразить степень уверенности ct(А).
Второй вопрос связан с тем, что истинность посылки А в продукции А→С может не всегда влечь за собой истинность заключения С. Степень поддержки заключения С посылкой А в продукции А→С обозначим через ct(А→С).
Третий вопрос обусловлен тем, что одно и то же заключение С может в различной степени поддерживаться несколькими посылками (например, заключение С может поддерживаться посылкой А посредством продукции А→С с уверенностью сt(А→С) и посылкой В посредством продукции В→С с уверенностью ct(В→С)). В этом случае возникает необходимость учета степени совместной поддержки заключения несколькими посылками.
Последний вопрос вызван необходимостью оценки степени достоверности вывода, полученного посредством цепочки умозаключений (например, вывода С, полученного из посылки А применением последовательности продукций А→В, В→С, обеспечивающих степени поддержки соответственно сt(А→В) и ct(В→С)).
Подход на основе условных вероятностей (теоремы Байеса)
Рассматриваемый здесь подход к построению логического вывода на основе условных вероятностей называют байесовским. Байесовский подход не является единственным подходом, но он представляется удобным в условиях, когда решение приходится принимать на основе части свидетельств и уточнять по мере поступления новых данных.
В сущности, Байес исходит из того, что любому предположению может быть приписана некая ненулевая априорная (от лат. a priori - из предшествующего) вероятность того, что оно истинно, чтобы затем путем привлечения новых свидетельств получить апостериорную (от лат. a posteriori - из последующего) вероятность истинности этого предположения. Если выдвинутая гипотеза действительно верна, новые свидетельства должны способствовать увеличению этой вероятности, в противном же случае они должны ее уменьшать.
Примем для дальнейших рассуждений следующие обозначения: P(H) ‑ априорная вероятность истинности гипотезы H (от англ. hypothesis - гипотеза); P(H:E) ‑ апостериорная вероятность истинности гипотезы Н при условии, что получено свидетельство Е (от англ. еvidence - свидетельство); Р(Е:H) ‑ вероятность получения свидетельства Е при условии, что гипотеза Н верна; P(E:неН) ‑ вероятность получения свидетельства E при условии, что гипотеза Н неверна.
По определению условных вероятностей имеем:
и .
Учитывая, что Р(Н и E)=Р(Е и Н), получаем теорему Байеса:
.
Учитывая, что Р(Е) = Р(Е:Н)Р(Н) + Р(Е:неН)Р(неН) и Р(неН) = 1- Р(Н), получаем формулу, позволяющую уточнять вероятность истинности проверяемой гипотезы Н с учетом полученного свидетельства Е:
Здесь обнаруживаются достоинства байесовского метода. Первоначальная (априорная) оценка вероятности истинности гипотезы Р(Н) могла быть весьма приближенной, но она позволила путем учета свидетельства Е получить более точную оценку Р(Н:Е), которую можно теперь использовать в качестве обновленного значения Р(Н) для нового уточнения с привлечением нового свидетельства. Иначе говоря, процесс уточнения вероятности Р(Н) можно повторять снова и снова с привлечением все новых и новых свидетельств, каждый раз обращаясь к одной и той же формуле. В конечном счете, если свидетельств окажется достаточно, можно получить окончательный вывод об истинности (если окажется, что Р(Н) близка к 1) или ложности (если Р(Н) близка к 0) гипотезы Н. Шансы и вероятности связаны между собой следующей формулой:
.
В некоторых странах использование шансов более распространено, чем использование вероятностей. Кроме того, использование шансов вместо вероятностей может быть более удобным с точки зрения вычислений. Переходя к шансам в рассмотренных нами формулах, получим:
Если же перейти к логарифмам величин, а в базе знаний хранить логарифмы отношений Р(Е:Н)/Р(Е:неН), то все вычисления сводятся к суммированию, поскольку
ln |O(H:E)| = ln |Р(Е:Н)/Р(Е:неН)| + ln |O(H)|.
Против использования шансов есть несколько возражений, главное из которых состоит в том, что крайние значения шансов равны "плюс" и "минус" бесконечности, тогда как для вероятностей это 0 и 1. Поэтому использовать шансы удобно в тех случаях, когда ни одна из гипотез не может быть ни заведомо достоверной, ни заведомо невозможной. Как принцип, байесовский подход выглядит прекрасно, но есть и несколько проблем, связанных с его применением.
Первое замечание касается возможности вычисления величины Р(Е). Эту величину легко определить, если есть возможность вычислить Р(Е:неН), а это не всегда можно сделать.
Один из способов обойти это затруднение состоит в переходе к полной группе событий, однако это не спасает положение, если состав полной группы событий неизвестен. Можно пользоваться и грубыми оценками, если сохраняется точность диагноза. Кроме того, если Р(Н) уточняется в ходе работы, то уточнять можно и Р(Е).
Второе замечание касается используемого в этом подходе предположения о независимости свидетельств. С теоретической точки зрения это замечание очень серьезно, но поскольку в конце процесса диагноза нас интересуют не столько точные значения вероятностей (это больше беспокоит статистиков), сколько соотношения вероятностей, то при одинаковом порядке ошибочности оценок вероятностей гипотез для практики более важной оказывается правильность общей картины, создаваемой экспертной системой.
Страница обновлена: 15.07.2024 в 11:04:57