Scientific journal
Fundamental research
ISSN 1812-7339
"Перечень" ВАК
ИФ РИНЦ = 1,674

ENTROPY CHARACTERISTICS OF A TECHNICAL SYSTEM

Dulesov A.S. 1 Semenova M.Y. 1 Khrustalev V.I. 1
1 NF «Katanov Khakasskii State University», Abakan
The article analyses the entropy qualities necessary for the probability calculation of the elements vagueness conditions, which behavior influences the change in the system technical structure. Following the theory of information the authors choose the classical entropy definitions, when the elements’ conditions are analyzed as independent combined states appearing under the certain conditions. The formulas presented in the article are supplied with the examples showing the possibilities of their use for locating the technical systems’ entropy. The authors single out the quality of the entropy indicating the necessity of the only combined states analysis of elements because they are joined both by structural and functional systems’ connections.
entropy
measure of uncertainty
technical system
reliability

Для технических систем предъявляются требования к сохранению высокого уровня надежности. Эволюция таких систем определила вопросы надежности в качестве главного направления в развитии науки о системной надежности.

Всякая система обладает определенной детерминированной или вероятностной природой функционирования. Поиск оптимальных путей решения проблем надежности наталкивается на вопрос о взаимосвязи структуры и функции. Имея структуру, можно сделать вывод о выполняемой ею функции. В основе надежного функционирования технических систем лежат принципы единства и избыточности структуры и функции.

Соблюдение принципа избыточности требует согласованных решений, вырабатываемых на основе экономических критериев, поскольку его нарушение приводит к недопустимому увеличению размеров, стоимости и других показателей. Поэтому в процессе проектирования и эксплуатации технических систем ключевое место для решения проблем надежности занимают процессы обработки данных и принятия решений. При этом параметры системы и приложенные к ней воздействия интерпретируют в виде детерминированных или статистических моделей. Последние имеют значение при исследовании сложных систем с большим количеством связей и факторов воздействия. Рассматривая состояния системы, из их многообразия выделяют подмножество состояний, различающихся между собой с точки зрения показателей надежности. Их отслеживание в динамике позволяет судить об эволюции системы, возможностях выбора вариантов решений, направленных на сохранение или повышение уровня надежности.

Случайное поведение технической системы, обусловленное влиянием незапланированных факторов, связано с неопределенностью, степень которой в различные моменты времени будет разной. На практике важно уметь численно оценивать степень неопределенности разнообразных состояний (структурных изменений) системы, чтобы иметь возможность сравнить их между собой. Важным показателем неопределенности является энтропия, определение величины которой может служить мерой структурного состояния системы. Рост энтропии отражает тенденцию к развитию хаотических процессов в системе, что свидетельствует о старении элементов системы, отсутствии должного управления и организационного поведения. Поэтому аналитику важно знать, оправдывает ли система возложенные на неё функции.

Энтропия как мера степени неопределенности. Каждый элемент технической системы несет информацию в орган контроля и управления о своем состоянии, природа поведения которого вероятностна. С точки зрения теории структурной надежности элемент может находиться в одном из двух состояний: работоспособное или отказ. Здесь мы имеем k = 2 равновероятных исхода опыта, то есть процесса эксплуатации элемента. Искомая численная характеристика степени неопределенности, а в нашем случае надежности эксплуатации элемента должна зависеть от k исходов и описываться функцией f(k). При k = 1 она должна обращаться в нуль, свидетельствуя о наличии полной определенности опыта.

Поскольку в системе имеется множество элементов, то данная функция должна учитывать неопределенность состояний всех рассматриваемых элементов. Пусть имеется два элемента α и β, которые работают независимо друг от друга (например, трансформаторы, кабели, линии и т.д., резервирующие друг друга с целью повышения надежности передачи энергии). Тогда с позиции надежности передачи каждый из этих элементов может находиться в k = 2 состояниях (работа и отказ). Если рассматривать сложный опыт αβ (параллельная независимая работа элементов), то степень его неопределенности будет характеризоваться функцией: для двух элементов f(kΣ) = f(k1) + f(k2); для многих - f(kΣ) = Σif(ki). Тогда мера неопределенности опыта, имеющего k = 2 равновероятных исходов, определится как logkΣ = Σilogki. Основание логарифма для k = 2 принимается равным 2, а неопределенность будет измеряться в битах.

Элемент α системы может находиться в двух состояниях с вероятностями: р - вероятность работоспособного состояния; q = 1 - р - вероятность отказа. Тогда в результате опыта оба исхода с вероятностями р и q дадут энтропию (например для элемента α):

f, (1)

при условии p + q = 1.

Далее выделим свойства, свидетельствующие о том, что энтропия:

1) является величиной вещественной и неотрицательной, так как всегда 0 ≤ р ≤ 1, то log p ≤ 0 и, следовательно, - рlog p ≥ 0;

2) ограниченна из-за наличия условия: p + q = 1;

3) будет равна нулю, когда заранее известен исход опыта (p = 1 и q = 0, и наоборот: p = 0, q = 1);

4) максимальна, если оба состояния элемента равновероятны, то есть когда p = q = 0,5;

5) для бинарных (двоичных) сообщений может изменяться от нуля до единицы (см. п.1);

6) достигает максимума, равного единице, при p = q = 0,5.

Значения вероятностей могут быть получены расчетным путем исходя из опытной эксплуатации систем. Исходными величинами могут служить интенсивности отказов и восстановлений, время наработки на отказ и время восстановления и др. Соответственно вероятности отказа и работоспособности (безотказной работы) являются обобщенными показателями надежности и позволяют по выражению (1) определить обобщенное значение энтропии.

Исторически введение меры энтропии закрепилось за инженером Хартли, предложившим характеризовать степень неопределенности опыта с k исходами числом logk. Его мера базируется на предположении равновероятности исходов (для нашего случая: p = q = 0,5). Например, в работе [1] имеются пояснения, касающиеся определения степени неопределенности по Хартли. Однако данная мера малопригодна для нашего случая, в котором исходы не равновероятны.

Впоследствии К. Шеннон предложил принять в качестве меры неопределенности опыта α с исходами (состояниями) k = 1, 2, ..., m величину

f,

 при условии f. (2)

Из выражения (2) видно, что при состояниях m = 2 имеем выражение (1). Возможности применения (2) для определения энтропии структуры технической системы из двух элементов представлены в работе [2].

Следует иметь в виду, что меры Хартли и Шеннона не могут претендовать на полный учет всех факторов, определяющих неопределенность поведения системы в полном смысле, какая может встретиться в жизни. Например, следует определить энтропию для двух ансамблей случайных величин. В первом ансамбле имеется три величины (0,9; 1,1 и 1,0) с вероятностями соответственно (0,25; 0,5; 0,25), во втором - величины (100; 1; 1000) с вероятностями (0,5; 0,25; 0,25). Применив условие (2), видно, энтропии равнозначны и зависят только от вероятностей исходов опытов, но не зависят от того, каковы сами исходы: насколько они «близки» или «далеки» друг от друга в смысле величин. Тем не менее в работе [3] представлены выражения для определения такого рода соотношений между исходами, а в [4] даны пояснения о возможности применения их на практике.

Отмечая свойства и особенности применения энтропии, следует заметить, что при анализе работы технической системы основную роль играют статистические закономерности, поскольку в ней присутствуют потоки энергии, обеспечивающие её жизнедеятельность. Поэтому энтропия должна быть приспособлена для определения степени неопределенности сложных структур («составных опытов»), в которых «составные опыты» представляют собой серии следующих друг за другом испытаний.

Далее предложим выражения определения различного рода энтропий, пояснив их полезность при определении меры неопределенности структурированных систем.

Энтропия элементов, функционирующих независимо. Пусть система или подсистема состоит из двух независимо функционирующих элементов α и β. Отметим, что условие о независимости функционирования элементов формально, так как в технической системе большинство из них связано между собой как структурно, так и функционально. Рассматривая работу элементов как некоторые опыты α и β, для каждого из них будем иметь по два исхода (состояния) k = 2 с вероятностями р и q: для первого элемента состояния обозначим как Ap и Aq с вероятностями p(A) и q(A), для второго - Bp и Bq с вероятностями p(B) и q(B).

Рассмотрим сложный опыт α + β, состоящий в том, что рассматриваются два одновременно работающих элемента. Их эксплуатация показывает, что налицо имеем 2·2 = 4 исхода: оба работают - ApBp; 1-й работает, 2-й в ремонте - ApBq; 1-й в ремонте, 2-й работает - AqBp; оба в ремонте - AqBq.

Покажем далее, что для такого опыта выполняется правило сложения энтропий:

H(α + β) = H(α) + H(β).

Согласно вышепредставленным выражениям и опустив двойку в основании логарифма, запишем:

H(α + β) = -p(ApBp) log p(ApBp) - p(ApBq) log p(ApBq) -
- p(AqBp) log p(AqBp) - p(AqBq) log p(AqBq).

Так как элементы функционируют независимо друг от друга, например, отказ одного не влияет на отказ другого, то p(ApBp) = p(Ap)p(Bq), p(ApBq) = p(Ap)p(Bq) и т.д. Тогда последнее выражение можно переписать в виде

H(α + β) = -p(Ap)p(Bp)(log p(Ap) + logp(Bp)) - p(Ap)p(Bq)(log p(Ap) + logp(Bq)) -
- p(Aq)p(Bp)(logp(Aq) + logp(Bp)) - p(Aq)p(Bq)(log p(Aq) + logp(Bq)) =
= -p(Ap)(p(Bp) + p(Bq))logp(Ap) - p(Ap)[p(Bp)logp(Bp) + p(Bq)logp(Bq)] - p(Aq)(p(Bp) + + p(Bq))logp(Aq) - p(Aq)[p(Bp)logp(Bp) + p(Bq)log p(Bq)].

В данной формуле выражение в квадратных скобках дает нам для второго элемента энтропию со знаком «минус» (- H(β)), так же p(Bp) + p(Bq) = 1. Тогда последнее выражение перепишем в следующем виде:

H(α + β) = - p(Ap) log p(Ap) + p(Ap) H(β) - p(Aq) log p(Aq) + p(Aq) H(β).

После незначительных преобразований (с учетом, что p(Ap) + p(Aq) = 1) получим окончательно

H(α + β) = H(α) + H(β).

Если перейти к символам следующего содержания: i - порядковый номер элемента в системе; р и q - вероятности, тогда энтропия для двух независимо функционирующих элементов запишется следующим образом:

f

при условии pi+qi = 1.

Для n независимо функционирующих элементов будем иметь:

f (3)

Выражение (3) применимо, когда состояние элемента не зависит от состояния других элементов. По сути, такой элемент рассматривается как отдельная подсистема без учета влияния внешних факторов.

Совместная энтропия. Известно, что практически все элементы в технической системе взаимосвязаны. Например, связь может быть обусловлена функцией передачи энергии от источника к потребителю. Поэтому события взаимосвязанных элементов могут совмещаться. Требуется определить энтропию совместного появления статистически зависимых опытов. Рассмотрим меру неопределенности для двух элементов, для каждого из них будем иметь по два исхода k = 2 с вероятностями р и q, с общим количеством исходов, равным 4, то есть N = 2n, где n - количество элементов в системе.

Учитывая обозначения состояний, представленных выше, запишем:

H(αβ) = - p(ApBp) log p(ApBp) - p(ApBq) log p(ApBq) - p(AqBp) log p(AqBp) -
- p(AqBq) log p(AqBq) = - p(Ap)p(Bp) log p(Ap)p(Bp) - p(Ap)p(Bq) log p(Ap)p(Bq) -
- p(Aq)p(Bp) log p(Aq)p(Bp) - p(Aq)p(Bq) log p(Aq)p(Bq).

В данном выражении соблюдается условие:

p(Ap)p(Bp) + p(Ap)p(Bq) + p(Aq)p(Bp) + p(Aq)p(Bq) = 1,

или p1p2 + p1q2 + q1p2 + q1q2 = 1, где подстрочные символы 1 и 2 указывают на номер элемента.

В общем виде совместная энтропия двух элементов

f,

при f, (4)

при условии, что сумма вероятностей 4-х состояний равна 1, а при равновероятных исходах H(αβ) = 2. Символы i и j означают соответственно порядковые номера состояний элементов. Условие (4) свидетельствует о том, что совместные события рассматриваются как независимые. Для трех и более взаимосвязанных элементов количество совместных состояний N = 2n.

Совместная энтропия, как было отмечено выше, является мерой неопределенности или мерой разнообразия состояний системы. С ростом числа её элементов и, следовательно, совместных состояний, энтропия увеличивается, достигая своего максимума при условии, что вероятности всех совместных состояний одинаковы.

Таким образом, совместная энтропия служит мерой свободы системы: чем больше энтропия, тем больше состояний доступно системе, тем больше у нее степеней свободы.

Дополнительно заметим, что выражения для определения совместной энтропии можно применить тогда, когда техническая система рассматривается с позиции неопределенности её разнообразных состояний (структурных изменений) с тем, чтобы иметь возможность сравнивать их между собой.

Однако совместная энтропия не позволяет определять степень неопределенности для системы, в которой решающую роль играет её структурное содержание при передаче материи или энергии от источника к потребителю. Например, по условию надежности передачи энергии выражение (4) не позволяет сопоставить между собой меры неопределенностей поставки энергии по цепочкам из двух последовательно и параллельно соединенных элементов. Здесь требуется выработать и использовать иные выражения, способные учитывать неопределенность в объемах поставки ресурсов (энергии) от источника к потребителю.

Условная энтропия. Пусть в системе два элемента α и β функционируют независимо. Например, в цепях из последовательно соединенных элементов отказ (предшествующее событие) одного из них приводит к отказу (последующему событию) другого элемента. Здесь результат второго опыта полностью определяется результатом первого. В этом случае энтропия не может быть определена как сумма энтропий H(α) и H(β), поскольку после появления события α событие β уже не будет содержать никакой неопределенности. Следовательно, можно предположить, что энтропия сложного опыта из α и β будет равна энтропии первого опыта α, а не сумме энтропий опытов α и β.

Покажем далее, чему равна энтропия сложного опыта из α и β в общем случае, то есть условная энтропия H(β/α). Воспользуемся ранее записанным выражением для определения H(αβ), выразив условную энтропию в виде:

f 

В данном выражении нельзя использовать произведения, заменив, например, p(ApBp) на p(Ap)p(Bp) и далее по формуле. Поэтому введем взамен p(ApBp) и далее выражение p(Ap)p(Bp/Ap), в котором p(Bp/Ap) - условная вероятность события Bp при условии появления события Ap. Тогда последнее выражение перепишем в виде:

f 

Известно, что p(Bp/Ap) + p(Bq/Ap) = 1 и p(Bp/Aq) + p(Bq/Aq) = 1. Кроме этого, если события Bp и Bq в опыте β являются достоверными, то условные вероятности p(Bp + Bq) /Ap = 1 и p(Bp + Bq) / Aq = 1.

Выделим из последнего выражения слагающие:

- p(Ap) log p(Bp/Ap) - p(Ap) log p(Bq/Ap)

и

- p(Aq) log p(Bp/Aq) - p(Aq) log p(Bq/Aq),

каждая из которых представляет собой энтропию опыта β при условии, что имели место события Ap и Aq. Эти два выражения - условные энтропии опыта β при условиях Ap и Aq, обозначаемые как H(B/Ap) и H(B/Aq).

Таким образом, выражение для H(β/α) может быть переписано в виде:

H(β/α) = -p(Ap)log p(Ap)- p(Aq)log p(Aq) +
+ p(Ap)H(B/Ap) + p(Aq) H(B/Aq).

В данном выражении первый и второй члены представляют собой энтропию опыта α, то есть H(α). Два последних члена представляют собой случайной величины, принимающие с вероятностями p(Ap) и p(Aq) значения H(B/Ap) и H(B/Aq), то есть значения, равные условной энтропии опыта β при условии, что опыт α имеет исходы Ap и Aq. В общей совокупности оба значения получили название - средняя условная энтропия опыта β при условии достоверного выполнения опыта α. Её можно записать в виде

H(B/α) = p(Ap) H(B/Ap) + p(Aq) H(B/Aq).

Тогда окончательно запишем:

 H(β/α) = H(α) + H(B/α).    (5)

Выражение (5) является правилом сложения энтропий.

Добавим к вышеизложенному следующее: средняя условная энтропия H(β/α) играет существенную роль в решении задач о потерях в технических системах; если знаем заранее, какой именно исход Ap или Aq опыта α имел место, то при определении условных энтропий H(B/Ap) и H(B/Aq) опыта β можно игнорировать условные вероятности p(Bp/Ap), p(Bq/Ap), p(Bp/Aq) и p(Bq/Aq).

С другой стороны, средняя условная энтропия H(β/α), выполнение которой не предполагает заранее известным исход α, глубоко отражает взаимосвязь между элементами α и β.

Отметим некоторые свойства H(B/α). Если вероятности p(Ap) и p(Аp) отличны от нуля (то есть элемент α может находиться в двух состояниях), то H(B/α) = 0 в случае, если H(B/Ap) = H(B/Aq) = 0. Это означает следующее: при любом состоянии элемента α результат состояния элемента β становится полностью определенным. Например, для двух последовательно соединенных элементов α и β, состояния с вероятностями p(Ap) и p(Аp) первого по пути движения энергии элемента α полностью определяют состояния и вероятности второго элемента β. В данном случае будем иметь: H(β/α) = H(α). Если элементы α и β рассматривать как независимо функционирующие, то

H(B/Ap) = H(B/Aq) = H(β) и H(B/α) = H(β).

Рассматривая возможные состояния элементов α и β, из теории информации известно, что 0 ≤ H(B/α) ≤ H(β). Это означает следующее: когда исход опыта β полностью определяется исходом α и когда оба опыта независимы, то они являются крайними.

Пример расчета. Пусть имеется структура системы, состоящая из трех элементов n = 3. Для каждого из элементов известны вероятности работы: р1 = 0,9; р2 = 0,8; р3 = 0,7. Соответственно вероятности отказа: q1 = (1- р1) = 0,1; q2 = 0,2; q3 = 0,3.

Если предположить, что все элементы функционируют независимо друг от друга, то будем иметь сложный опыт α +β + γ с наличием N = 23 = 8 состояний. Согласно выражению (3) энтропия независимых элементов

H(α + β + γ) = - p1log p1 - q1log q1 - p2log p2 - q2log q2 - p3log p3 - q3log q3 =
= - 0,9 log 0,9 - 0,1 log 0,1 - 0,8 log 0,8 - 0,2 log 0,2 - 0,7 log 0,7 -
- 0,3 log 0,3 = 2,072 бит.

Максимальная энтропия достигается при равенстве q = р = 0,5:

Hmax(α + β + γ) = - 5·(0,5 log 0,5) = 3 бит.

 Максимальная энтропия означает следующее: каждый элемент системы находится в максимальной степени неопределенности, равной 1, а система в степени 3 (равной числу её элементов).

В технической системе элементы рассматриваются как выполняющие единую задачу, поэтому теория структурной надежности рассматривает появление различных состояний как совместные события. Их количество равно 8 и они рассматриваются как независимые. Запишем выражение и определим совместную энтропию трех элементов:

f

Максимальная энтропия достигается при равенстве q = р = 0,5:

Hmax(αβγ) = - 8·(0,53 log 0,53) = 3 бит.

Как видно из примера,

H(α + β + γ) = H(αβγ).

Это означает, что опыты в первом случае рассматривались как независимые в нарушении второго свойства энтропии.

Выводы

1. Дано теоретическое обоснование возможностей определения энтропии для технических систем, элементы которых несут информацию о вероятностях состояний (работоспособности и отказа).

2. Выделены свойства, присущие энтропии, когда элементы функционируют независимо и не независимо друг от друга, а также, когда их состояния совместны.

3. Свойства и выражения определения энтропии справедливы для технических систем в независимости от способа соединения их элементов.


Рецензенты:

Булакина Е.Н., д.т.н., доцент, профессор кафедры автомобилей и автомобильного хозяйства Хакасского технического института - филиала ФГАОУ ВПО «Сибирский федеральный университет», г. Абакан;

Кочетков В.П., д.т.н., профессор, профессор кафедры электроэнергетики Хакасского технического института - филиала ФГАОУ ВПО «Сибирский федеральный университет», г. Абакан.

Работа поступила в редакцию 22.02.2011.