Научный журнал
Фундаментальные исследования
ISSN 1812-7339
"Перечень" ВАК
ИФ РИНЦ = 1,674

СУБЪЕКТИВНАЯ ВЕРОЯТНОСТЬ В ОПРЕДЕЛЕНИИ МЕРЫ НЕОПРЕДЕЛЕННОСТИ СОСТОЯНИЯ ОБЪЕКТА

Дулесов А.С. 1 Семенова М.Ю. 1
1 ГОУ ВПО «Хакасский государственный университет им. Н.Ф. Катанова», Абакан
Рассматриваются возможности применения количественной субъективной вероятности для определения энтропии и негэнтропии (отрицательной энтропии). Дано общее понятие количественной субъективной вероятности и представлены методы её определения. Выделен принцип информации Бриллюэна и предложены математические выражения определения энтропии и негэнтропии, позволяющие устранить неопределенность состояния технического объекта.
мера информации
энтропия
негэнтропия
техническая система
1. Наумов Г.Е., Подиновский В.В., Подиновский Вик.В. Субъективная вероятность: способы представления и методы получения // Техническая кибернетика. – 1991. – №5. – С. 94–109.
2. Saaty T.L. A scaling method for priorities in hierarchical structures // J. Math. Psychology. – 1977. – Vol. 15, № 3.
3. Yager R.R. An eigenvalue method of obtaining subjective probabilities // Behaviorial sci. – 1979. – Vol. 24, № 6.
4. Информационные технологии: приоритетные направления развития: монография / Л.Н. Абугалипова, А.Г. Гусейнов, А.С. Дулесов и др. – Новосибирск: ЦРНС – Изд-во «Сибпринт», 2010. – 194 с.
5. Бриллюэн Л. Наука и теория информации. – М.: Физматгиз, 1960. – 287 с.
6. Кастлер Г. Возникновение биологической организации. – М.: Наука, 1967. – 325 с.
7. Лийв Э.Х. Инфодинамика. Обобщённая энтропия и негэнтропия. – Таллинн: АО Юхисэлу, 1998. – 200 с.
8. Райфа Г. Анализ решений. Введение в проблему выбора в условиях неопределенности. – М.: Наука, 1977. – 408 с.

При управлении сложным объектом (прежде всего техническим) учет неопределенных факторов и неполноты информации является неотъемлемой частью системы управления. Решение задач в области наличия качества, многомерности, энергетических связей, неопределенности остается актуальным. Система (объект) в темпе времени меняет свое состояние, которое нужно отслеживать с тем, чтобы принимать решения, направленные на её управление. Неотъемлемой частью системы является информация, которая передается по техническим и иным каналам связи между элементами и объектом управления.

Общие закономерности протекания процессов передачи, превращения, обработки и хранения информации соотносятся с понятием энтропии, определение величины которой позволяет обобщить неопределенность информаций, вызванных воздействием случайных факторов различной природы. Энтропия способна учесть как количественное, так и качественное содержание информаций.

Среди исходных положений о её анализе и принятии управленческих решений выделяют следующие [7]:

  • объект состоит из иерархически и интерактивно взаимосвязанных элементов, разнообразных по своей структуре и назначенным функциям;
  • информацией является любая связь между элементами, в результате которой изменяется энтропия хотя бы одного элемента системы;
  • созданные в результате умственной деятельности человека модели (включая и умственные) являются приближёнными.

Под воздействием внешних и внутренних факторов в систему вносится хаос (беспорядок), что приводит к изменениям в структуре и нарушению порядка. Если порядок сохраняется и поддерживается, то он измеряется количеством негэнтропии, тогда как хаос - количеством энтропии. Чтобы система нормально функционировала и развивалась, с внедрением в неё негэнтропии (как связующей информации) нейтрализуется часть энтропии и тем самым сохраняется упорядоченность. Фактически здесь речь идет о принципе взаимоисключения информаций [4].

В теории информации энтропия определяется через «вероятности состояния», так как законы Природы подчиняются, во многом, с точки зрения науки, вероятностной доминанте. Энтропия указывает на направление развития системы во времени и пространстве и постоянно растет, свидетельствуя о процессе старения (разрушения) объекта. Тем самым она указывает нам на необходимость искать пути противостояния её естественному росту. Уменьшение энтропии - планомерная задача, включающая в себя накопление, трансформацию, переработку информации и энергий с тем, чтобы контролировать энергоинформационные процессы внутри системы. Основываясь на принципе взаимоисключения, следует наращивать негэнтропию с тем, чтобы уменьшить энтропию. Отметим, что энтропию учитывают как меру неопределенности состояния некоторой физической системы, а негэнтропию (информацию) как меру снятия неопределенности.

Вышепредставленные положения не исключают, в рамках методологии искусственного интеллекта, использование моделей, основанных на теории субъективной вероятности. Одним из её инструментов принято считать «мягкие» вычисления (выводы) в экспертных системах. С практической точки зрения не так уж важно, какие методы будут положены в основу механизма вывода, поскольку важен сам факт учета неопределенности. В то же время простейший анализ устойчивости вывода в используемом методе, необходимость определения энтропии и негэнтропии для снятия неопределенности показывают, что эти вопросы имеют серьезное прикладное значение.

Далее предложим к рассмотрению (следуя [1]) некоторые понятия и простейшие методы оценивания количественной субъективной вероятности, а также выражения для определения энтропии и негэнтропии.

Понятие субъективной вероятности. Существуют понятия «объективная вероятность» и «субъективная вероятность». Первое включает в себя относительную частоту появления какого-либо события в общем объеме наблюдений (статистическое определение вероятности) или отношение числа благоприятных исходов к общему их количеству (классическое определение вероятности). Объективная вероятность определяется посредством анализа большого числа наблюдений, имевших место в прошлом. Под субъективной вероятностью понимают меру уверенности человека (эксперта) или группы людей в том, что данное событие в действительности будет иметь место. Её применяют тогда, когда невозможно воспользоваться объективной вероятностью по причине неполноты или отсутствия данных о наблюдениях в прошлом, из-за высокой стоимости получения объективной вероятности и др.

Субъективную вероятность можно представить различными способами: распределением вероятностей и бинарным отношением на множестве событий, не полностью заданным распределением вероятностей или частичным бинарным отношением, и другими способами. Данную вероятность по форме представления разделяют на количественную и качественную. Количественная субъективная вероятность является вероятностной мерой на множестве событий, удовлетворяющей той же системе аксиом, что и вероятность объективная. С этой точки зрения она ничем не отличается от объективной вероятности. Разница заключается в используемых понятиях, поскольку числовые значения количественной субъективной вероятности формируются на основе мнений эксперта.

Порой эксперту сложно указать на числовое значение субъективной вероятности. Ему легче работать с более простой и, следовательно, более достоверной информацией, состоящей из ответов на вопросы о сравнительной вероятности (возможности) двух событий. Поэтому для решения некоторых задач практический интерес будет лежать в плоскости нечисловой формализации субъективной вероятности, основанной на использовании бинарных отношений превосходства > и равенства ≈ событий по вероятности. Такая формализованная субъективная вероятность получила название качественной. Вопрос о свойствах и числовом представлении качественной субъективной вероятности является более сложным (рассмотрен в [1]), нежели о получении количественной субъективной вероятности.

Методы получения количественной субъективной вероятности. Большинство из них основано на проведении опроса эксперта или группы экспертов. Различия в методах заключаются в решении задач либо с конечным множеством событий, либо с бесконечным. Для первой задачи возможна оценка вероятности каждого события в отдельности, для второй - строятся функции распределения непрерывных случайных величин. Их построение заключается в нахождении нескольких точек на графике функции распределения и последующем соединении их гладкой кривой. Существует иной подход, на основе которого выдвигается предположение о том, что определенный вид функции распределения заранее известен и для конкретного выбора требуется оценка неизвестных параметров.

Методы с конечным множеством событий предназначены для нахождения распределения вероятностей (p1, p2, ..., pn) на конечном множестве несовместных (взаимно-исключающих) событий (A1, A2, ..., An).

1. Метод прямой оценки вероятности событий. В нем эксперту предоставляется список всех рассматриваемых событий (A1, A2, ..., An). Эксперт для каждого рассматриваемого события должен указать вероятность или время его появления (или существования). Метод имеет различные модификации. Одна из них: предлагается сначала выбрать наиболее вероятное событие из предложенного списка, затем оценить его вероятность. Далее это событие из списка удаляется, а к оставшемуся списку применяется уже описанная процедура. Сумма всех полученных вероятностей должна равняться единице. Сам по себе метод простой, однако эксперт должен проверять условие равенства всех вероятностей единице.

2. Метод отношений. Эксперту вначале предлагается выбрать наиболее вероятное событие. Этому событию приписывается неизвестная вероятность P. Затем эксперт должен оценить отношение всех n вероятностей Pi всех остальных i-х событий к вероятности P выделенного события, то есть Pi/P. С учетом этих отношений и соблюдая условия нормировки , составляется уравнение для нахождения вероятности Р, а затем пересчитываются вероятности pi.

3. Метод собственного значения. Предложен в работе [3] и позволяет вычислить, через специально построенную матрицу М, вектор вероятностей, отвечающий её наибольшему собственному значению. Матрица М формируется в следующем виде:

 (1)

где (p1, p2, ..., pn) - вероятности, подлежащие определению.

Выделяя вектор-столбец Р = (p1, p2, ..., pn)Т вычисляют произведение матрицы М на Р:

 (2)

Неизвестный вектор Р является собственным вектором матрицы М, соответствующий её собственному значению n. Поскольку ранг матрицы М равен единице, то все её остальные собственные значения равны нулю.

Метод собственных значений заключается в следующем: сначала путем опроса эксперта находятся все элементы матрицы М, затем любым известным численным методом отыскивается собственный вектор (p1, p2, ..., pn), отвечающий наибольшему собственному значению λmax матрицы М и удовлетворяющий условию нормировки.

Пример. Подлежат рассмотрению три события A1, A2 и A3. Эксперт ознакомился с ними и сообщил следующее:

- событие A2 в три раза более вероятно, чем A1;

- событие A3 в два раза более вероятно, чем A1;

- событие A2 в три раза более вероятно, чем A3.

Из этих данных составляем матрицу

Применив любой численный метод, рассчитываем наибольшее собственное значение матрицы - λmax = 3,05 и собственный вектор - Р = (0,16; 0,59; 0,25)Т. Тем самым имеем искомые вероятности: p1 = 0,16; p2 = 0,59; p3 = 0,25.

В данном примере полученное наибольшее собственное значение λmax отличается от теоретически ожидаемого значения n = 3,0 незначительно - на 0,05. Если отклонение λmax от числа событий n будет существенным, то это указывает на противоречивость и несогласованность оценок эксперта. В работе [2] в качестве показателя непротиворечивости матрицы М предложено использовать отношение: (λmax - n)/n.

Методы с бесконечным множеством событий. Их применение позволяет строить функции вероятностного распределения непрерывных случайных величин при бесконечном множестве событий.

Метод переменного интервала. Имеется несколько модификаций этого метода [8], согласно которому следует выполнить требование: эксперт должен определить на множестве значений случайной величины интервал, для которого вероятность того, что случайная величина принимает значение в указанном интервале, равна заданной величине.

Предложим к рассмотрению один из вариантов данного метода. Например, опрос эксперта может строиться по следующей схеме. Эксперта просят указать такое значение (медиану) t0 случайной величины, которое будет разделять значения на две части с приблизительно равными вероятностями: вероятность того, что случайная величина примет значение меньше t0; вероятность того, что случайная величина примет значение больше t0. После того, как эксперт указал значение t0, переходят ко второму этапу. На нем эксперт должен указать такое значение (медиану) t1 случайной величины, которая делит область значений, больших t0, на две равновероятные части. Аналогично эксперт поступает с областью значений, меньших t0, и находит значение t2. После завершения второго этапа можно выполнить третий этап, состоящий в нахождении медиан каждого из полученных участков. Процесс разбиения на интервалы не следует продолжать слишком долго, поскольку с уменьшением интервала возрастают ошибки эксперта. Найденные значения ti и соответствующие им вероятности (1/2 для t0, 3/4 для t1, 1/4 для t2 и т.д.) наносят на график. Полученные точки соединяют гладкой кривой линией, которая представляет собой искомый график функции распределения.

Данный метод позволяет вернуться к ранее полученным оценкам с целью анализа их непротиворечивости. Например, после получения значений t0, t1 и t2 можно задать вопрос эксперту, а именно: действительно ли являются равновероятными интервалы от t2 до t0 и от t0 до t1. Так как выбор оценок t1 и t2 осуществлялся независимо друг от друга, то не исключено, что интервалы от t2 до t0 и от t0 до t1 не будут равновероятными. Тогда эксперт должен скорректировать одну из своих оценок, полученных ранее.

Кроме рассмотренного здесь метода переменного интервала существуют и другие. Например, метод фиксированного интервала, графический метод.

Мера энтропии и негэнтропии. В теории информации количество информации определяется на основе формул, среди которых имеется мера К. Шеннона для дискретных систем:

 (3)

при условии , где n - число признаков (значений), которые может иметь (принять) каждый элемент системы; pi - вероятность появления признака i.

Выражение (3), в котором условие совпадает с требованием к определению субъективной вероятности (сумма всех вероятностей должна быть равна единице), позволяет вычислить энтропию состояния объекта, путем подстановки значений субъективной вероятности. Дополнительно отметим, что условие в (3) предполагает рассмотрение ситуаций как независимых событий. Следовательно, при определении субъективных вероятностей мнения, вырабатываемые экспертом, не должны зависеть от решений других экспертов.

Если эксперт для всех событий укажет на то, что они равновероятны, то энтропия будет иметь максимальное значение. Не исключен факт внесения неопределенности в оценку состояния объекта, поскольку значение энтропии зависит от мнений эксперта, обусловленных его компетенциями в решении рассматриваемой задачи. Чем менее компетентен эксперт, тем большая по значению получается энтропия, отражающая несогласованность оценок эксперта с фактическим состоянием объекта.

Таким образом, принимая во внимание независимость событий и определив субъективные вероятности на основе имеющихся методов, можно вычислить энтропию. Тем самым будет получена энтропия состояния объекта с позиции мнений эксперта или группы экспертов. В ситуациях, когда недостаточно или отсутствует необходимая статистика о поведении объекта, полученные значения энтропии, на основе экспертных оценок могут быть полезны аналитикам. Например, для оценки состояния объекта, как в настоящем, так и в будущем, а также для выбора более эффективного оборудования и т.п.

В технической системе явно прослеживается два процесса: изменение энтропии и ответная реакция негэнтропии. Энтропия, как было отмечено выше, в общем виде является показателем хаоса, беспорядка и неопределенности. Негэнтропия измеряется в тех же единицах что и энтропия. Увеличение негэнтропии снижает энтропию на такую же величину, если при этом не учитывать потери информации. Тем не менее, эти информационные составляющие изменяются в системе по самостоятельным законам и их абсолютные значения мало зависят друг от друга.

Негэнтропия - мера порядка и упорядоченности внутренней структуры системы, то есть устранённая неопределённость для достижения цели. Негэнтропия связана с процессами планомерных целенаправленных действий со стороны управляющей системы. В зависимости от темпа роста энтропии (увеличения числа независимых переменных и факторов) требуется вносить в неё большее количество обобщенной негэнтропии.

Рассматриваемый объект имеет функциональные связи с иными системами, которые в совокупности образуют более сложные системы, например социотехнические, технико-экономические и другие. Определение меры информации через экспертные оценки справедливо для всех из них, но признаки элементов системы, относительно которых неопределённость описывается формулой Шеннона, разные. Можно учесть данную специфику по формуле Шеннона:

 (4)

где  - событие (c вероятностью pi, ), отражающее признаки, присущие рассматриваемой системе j.

Суммирование вероятностей в (4) возможно как исключение для специфически взаимосвязанных систем и их элементов при условии, что признаки относятся к единой цели.

Одна и та же система в зависимости от постановки разных целей формально становится разделенной на подсистемы, косвенно связанные между собой. Тогда для количественного описания неопределённости в (4) учтены аргументы , которые формализуют различие признаков, относительно которых вычисляется неопределённость.

Величину H сложно прогнозировать, поскольку воздействие Природы на технический объект не считается агрессивным и, следовательно, её поведение трудно предсказуемо. Сюда же относят многообразие факторов и взаимосвязей между ними. В таком случае будут полезны как статистические данные, так и экспертные оценки, поскольку для Природы мерой является энтропия как физическая переменная, отражающая наиболее вероятное состояние системы (объекта, процесса). Что касается негэнтропии, то решение задачи об уменьшении энтропии должно быть связано с конкретной поставленной целью, при достижении которой требуется выстроить определённые функции. Кроме этого, определение информации связано с оценкой количества используемых ресурсов. Наличие цели усложняет процесс получения информации, что накладывает свой отпечаток на возможности применения теории информации и экспертных оценок.

Как было отмечено выше, устранение неопределённости выражается фактом состояния объекта и реализацией планируемых процессов. В случае определения меры информации по Шеннону, функциональный вид конкретных выражений и значение неопределённости (энтропии) будут зависеть от аргументов вероятностей - признаков, относительно которых выражается неопределённость. Здесь сама мера неопределённости количественно и смысловым образом выражает информацию. Математические выражения описания самой неопределённости служат мерой количества информации как устранённой неопределённости. При этом считается, что в процессе эксплуатации объекта предзаданной цели нет. Свойство двойственности позволяет применять полученные Шенноном выражения для определения энтропии, а негэнтропии только в частном порядке, например при соблюдении технической надежности объекта за счет полной или частичной замены его элементов. Поясним далее упомянутый частный случай.

Для определения негэнтропии технической системы, когда требуется восстановить элементы системы после аварии в ней, определяющими условиями в выделении признаков замены (восстановления) элементов служат факторы последствия аварий. Эти факторы характеризуют вероятностную величину ущерба и ресурсов, степень и сложность повреждений, необходимых для их устранения. Задача устранения повреждений хотя и имеет цель, но она может и не нести в себе плановых начал, а лишь вероятностную постановку вопроса о незамедлительной ликвидации последствий аварии. В этом отношении не исключаются решения, выработанные экспертами. Следовательно, информация качественно (смысловым образом полученная негэнтропия как устранённая неопределённость в достижении цели) и количественно (как энтропия, определённая по выражениям К. Шеннона), становится таковой (синтезируется) в результате запоминания выбора из случайностей [6].

С тем чтобы более детально понять роль негэнтропии в структурных изменениях систем, можно обратиться к формулировке Л. Бриллюэна о негэнтропийном принципе информации. Он пришел к выводу, что количественная величина информации, полученная системой, выражается в виде: I = H0 - H1, где H0 и H1 - соответственно, значение энтропии до и после момента внесения информации в систему. Тем самым информация равна изменению её энтропии, а энтропия изменения: H1 = H0 - I. Это положение свидетельствует о негэнтропийном принципе информации Бриллюэна: энтропия убывает с получением информации, которая должна доставляться внешним агентом [5]. Распространим данное положение на задачу получения информации от технических систем.

Решение задачи об устранении неопределенности в системе является многоэтапной:

1. Осуществляется сбор статистической информации о поведении объекта. Недостающая информация может быть получена посредством экспертных оценок.

2. Имея на руках вероятностные статистические и субъективные оценки, определяется энтропия состояния объекта на текущий момент времени.

3. Выделив границу предельного значения энтропии для объекта, сравнивают её с текущей энтропией. Если текущая энтропия близка к предельной, принимается решение об устранении неопределенности в системе.

4. Переходят к определению негэнтропии, направленной на устранение неопределенности. Этот переход, имея разные формы, требует согласования единиц измерения с энтропией.

5. Готовится информация целевого характера по формированию действий, направленных на снижение энтропии состояния системы. Эта информация связана с неопределенностью реализации действий и имеет вероятностный характер.

6. Информация предоставляется экспертам, задача которых оценить возможные варианты действий, направленных на уменьшение энтропии.

7. Имея субъективные оценки экспертов, переходят к определению величины негэнтропии, за которой стоят конкретные действия (с указанной долей субъективной вероятности) в снижении энтропии.

8. Проверяется соблюдение правила: Hk/m ≤ Hk - значение энтропии объекта при предварительно возложенных на него k условий будет уменьшаться при введении дополнительных m целенаправленных условий, то есть Hk/m = Hk - I. Величина Hk/m  не может быть отрицательной, а Hk = I означает, что неопределенность полностью устранена.

Как было отмечено выше, негэнтропия, характеризующая планомерные действия, устраняет неопределенность (то есть энтропию) и является количественной мерой информации. Дополнительно заметим, что действия могут нести как общий, так и частный характер и определяются необходимостью, условиями и порядком их реализации. Получение информации (устранение неопределенности) выражается через изменение условий, наложенных на систему и её энтропию. Планируемые действия вырабатываются объектом управления. Все действия выражаются переменной величиной с размерностью энтропии и связаны с работой над системой (которая не обязательно может быть связана с состоянием самой системы).

Заключение

Энтропия указывает на направление развития систем во времени и пространстве, определяется через «вероятности состояний» и позволяет выявить степень неопределенности состояния объекта. Одной из задач стоящих перед человеком, можно считать его стремление уменьшить энтропию, которая в технических системах отражает процесс старения. Уменьшение энтропии достигается за счет негэнтропии (информации), являющейся мерой снятия неопределенности. Обе меры определяются через вероятностные оценки, среди которых можно выделить «объективные» (статистические) и «субъективные», основанные на использовании экспертных систем. Применение последних уместно тогда, когда не достает или отсутствуют статистические данные о поведении объекта исследований. Используя существующие методы получения количественной субъективной вероятности можно применить её значения для получения энтропии и негэнтропии на основе формул К. Шеннона для дискретных систем. Опираясь на негэнтропийный принцип информации Л. Бриллюэна о структурных изменениях систем, поэтапное решение задачи об устранении неопределенности в системе позволит на основе экспертных оценок выработать планируемые действия по снижению энтропии.

Рецензенты:

Кочетков В.П., д.т.н., профессор, профессор кафедры электроснабжения Хакасского технического института - филиала Сибирского федерального университета, г. Абакан;

Булакина Е.Н., д.т.н., доцент, профессор кафедры автомобили и автомобильное хозяйство Хакасского технического института - филиала Сибирского федерального университета, г. Абакан.

Работа поступила в редакцию 12.05.2011.


Библиографическая ссылка

Дулесов А.С., Семенова М.Ю. СУБЪЕКТИВНАЯ ВЕРОЯТНОСТЬ В ОПРЕДЕЛЕНИИ МЕРЫ НЕОПРЕДЕЛЕННОСТИ СОСТОЯНИЯ ОБЪЕКТА // Фундаментальные исследования. – 2012. – № 3. – С. 81-86;
URL: https://fundamental-research.ru/ru/article/view?id=29342 (дата обращения: 04.05.2024).

Предлагаем вашему вниманию журналы, издающиеся в издательстве «Академия Естествознания»
(Высокий импакт-фактор РИНЦ, тематика журналов охватывает все научные направления)

«Фундаментальные исследования» список ВАК ИФ РИНЦ = 1,674