Scientific journal
Fundamental research
ISSN 1812-7339
"Перечень" ВАК
ИФ РИНЦ = 1,674

AMOUNT DEFINITION OF INFORMATION ENTROPY IN THE TECHNICAL SYSTEM STRUCTURE BY METHOD OF STATES SEARCH

Dulesov A.S. 1 Kondrat N.N. 1
1 Katanov Khakass State University
In work the method by means of which the information amount in problems of structural reliability calculation of technical system is presented. Among indicators of structure probabilities of system elements conditions which are shared on a qualitative sign are accepted: operable state and non-operable state. Such division allows receiving for each of states information necessary for their comparison to estimate of structural reliability. Mathematical expressions of determination of information entropy which basis the principle of the directed search of elements conditions are constructed. The example of a method of states search is given. The offered method allows to compare results of entropy for various structures, to choose system with higher level of structural reliability. Advantages and disadvantages of the method are described.
method of states search
information measure
information entropy. structure of technical system
1. Dulesov A.S., kabaeva E.V. Sovremennie problemy nauki I obrazovaniya (Modern problems of science and education), 2013, no.1, available at: http://www.science-education.ru/107-8210.
2. Dulesov A.S., Kondrat N.N. Nauchnoe obozrenie (Science review), 2014, no. 12, pp. 146–150.
3. Dulesov A.S., Kondrat N.N. Nauchnoe obozrenie (Science review), 2014, no. 7, pp. 258–264.
4. Dulesov A.S., Kondrat N.N. Fundamental Research, 2015, no. 2 (part 20), pp. 4408–4412.
5. Dulesov A.S., Semenova M.YU., Khrustalev V.I. Fundamentalnie issledovaniya (Fundamental Research), 2011 no. 8 (part. 3), pp. 631–636.

Рассматривая технические системы в процессе проектирования и эксплуатации, используя при этом критерии надежности, обращаются к рассмотрению структур, то есть к анализу структурной надежности. К системам с явно выраженными структурными связями относят электрические сети, трубопроводные системы, компьютерные сети и др. С позиции сохранения высокого уровня надежности таких систем пользуются общепринятыми методами расчета структурной надежности, например методами полного перебора состояний, дерева отказов, минимальных путей и сечений и другими. Фактически все они построены с использованием вероятностей безотказной работы pi и отказа qi элемента i системы. Применяя данные методы (при определенных условиях), можно выбирать структуру из рассматриваемого многообразия, удовлетворяющую требования по надежности.

Со структурной надежностью связывают такую составляющую состояния системы, как неопределенность информации, так как её количество обусловлено наличием связей и элементов системы, то есть топологией. Теория надежности может соприкасаться с теорией информации в плане определения её количества, необходимого для практики эксплуатации и проектирования. Например, согласно принципу К. Шеннона, информация – мера или количество неопределённости (информационной энтропии), связанное с результатом выбора из возможных альтернатив. Имея количество информации для той или иной структуры, можно судить об уровне содержащейся в ней неопределенности. Поэтому применение методов определения количества энтропии для структур технических систем может быть полезным с точки зрения оценки структурной надежности с позиции теории информации.

Далее предложим к рассмотрению математический метод перебора состояний, позволяющий определять количество информационной энтропии для различных структур технической системы.

Показатели структуры системы

Среди показателей выделяют вероятности безотказной работы и отказа элемента системы. Мера неопределенности информации непосредственно опирается на данные показатели. Для их определения строится (например, согласно [2, 3, 5]) статистический ансамбль. Используя его, определяют собственное значение информации I = log2N, N – количество всевозможных состояний элементов. Величина I задана рядом распределения, представляющего собой совокупность всех возможных отрицательных значений собственных (частных) информаций Ii и соответствующих им вероятностей pi [3]. Собственная информация является исходной для определения информационной (статистической) энтропии по Шеннону:

dulesov01.wmf (1)

Выражение (1) выполнимо при условии

dulesov02.wmf

Вероятность, стоящая в (1) перед логарифмом, связывает информацию с энтропией и накладывает свой отпечаток на конечный результат. Дело в том, что в большинстве методов определения количества энтропии данная вероятность служит для усреднения количества энтропии. С позиции анализа структурной надежности, когда, с одной стороны, статистические характеристики неустойчивы, а с другой – события приходится рассматривать как совместные, усреднение может способствовать росту погрешности. Поэтому вопрос о том, какую величину вероятности поставить перед логарифмом энтропии Шеннона, тема для отдельных научных изысканий. Поэтому далее положим в основу классическое выражение (1), ограничившись предположением об усреднении энтропии.

Статистические характеристики структурной надежности, как было отмечено выше, учитывают вероятное появление противоположных событий, принадлежащих одному и тому же элементу системы. Наличие противоположных состояний и предположение о их независимости указывает на необходимость разделения в процессе расчетов значений энтропий по качественному признаку. В оценках структурной надежности качественный признак – «работа-отказ», поэтому процесс определения энтропии должен идти отдельно по каждому из противоположных состояний, поскольку при их слиянии утрачивается смысл оценки уровня надежности через меру информации [1].

Далее предложим к рассмотрению метод определения энтропии путем перебора состояний структуры с учетом качественного признака.

Определение энтропии методом перебора состояний элементов структуры

Вся совокупность состояний объекта складывается из потоков противоположных состояний,

N = Np + Nq,

где Np и Nq – количество состояний, относящихся к работе и отказу системы соответственно.

Определение энтропии для каждого из двух противоположных (непересекающихся) множеств состояний элементов зависит, с одной стороны, от числа элементов, состояния которых рассматриваются как независимые, с другой – от топологии структуры.

Рассмотрим вначале определение суммарной энтропии, когда для n элементов работоспособное и неработоспособное состояния независимы, а сумма их совместных комбинаций N = 2n – есть суммарная вероятность, равная единице. Например, для 2 элементов с вероятностями pi + qi = 1, N = 22 = 4, имеем комбинацию

dulesov03.wmf (2)

Согласно (1) и с учетом сумм независимых совместных событий по (2), суммарная энтропия двух независимых элементов:

dulesov04.wmf (3)

Выражение (3), с учетом энтропий противоположных событий dulesov05.wmf dulesov06.wmf можно переписать в ином виде:

dulesov07.wmf (4)

Исходя из (4), суммарная энтропия системы в общем виде:

HΣ = HΣ(p) + HΣ(q). (5)

Перейдем к рассмотрению определения энтропии с учетом топологии структур. Для этого используем метод перебора состояний. Он основан на выделении групп состояний, в виде набора элементов структуры, которые визуально отражают состояние всей структуры от источника до приемника информации: для работоспособного состояния – группа содержит сквозную связь или связи источника с приемником; для неработоспособного – связь или связи отсутствуют.

Условие о независимости состояний позволяет формировать группы через произведение вероятностей нахождения элементов в соответствующих состояниях p и q. Так, при числе групп состояний, равном Np, энтропия работоспособного состояния системы определится из выражения

dulesov08.wmf (6)

где Np – общее число работоспособных состояний, в каждом j-м из которых число исправных элементов равно lj, а вышедших из строя – kj.

Аналогично формируются группы событий неработоспособного состояния системы Nq для определения энтропии:

dulesov09.wmf (7)

где Nq – общее число неработоспособных состояний, в каждом j-м из которых число неисправных элементов равно lj, а исправных – kj

Выражения (6) и (7) справедливы при условии

dulesov10.wmf (8)

Величину HΣ(q) можно определить не только по выражению (7), но и в более простом виде, избегая формирования неработоспособных групп:

HΣ(q) = HΣ – HΣ(p). (9)

Расчет выполняется в три этапа:

● выявление множества возможных состояний;

● составление математических выражений по каждому из состояний;

● расчет информации с разделением по качественному признаку.

Пример

Определить количество информационной энтропии для мостиковой структуры, представленной на рисунке. Значения вероятностей: pi = 0,9; qi = 1 – pi = 0,1.

pic_68.tif

Мостиковая структура (схема)

Предварительно составляется таблица состояний с их разделением на два непересекающихся множества, отвечающих работоспособному и неработоспособному состояниям всей структуры. Каждое из этих состояний характеризуется набором элементов в рабочем (с указанием 1) и отказавшем (с указанием 0) состояниях (таблица). Предположение о независимости функционирования элементов системы позволяет сформировать комбинации состояний (представленных в таблице), вероятность которых определяется произведением вероятностей состояний элементов.

Значения из таблицы позволяют определить суммарное количество энтропии работоспособного состояния по выражению (6), HΣ(p) = –2,1687. Аналогично достраивается таблица для определения по (7), HΣ(q) = –0,1763. Суммарная энтропия состояний

HΣ5 = HΣ(p) + HΣ(q) = –2,345.

Из представленного примера видно: энтропия работоспособных состояний гораздо выше энтропии неработоспособных состояний, что свидетельствует о высокой структурной надежности системы.

У предлагаемого метода имеются недостатки: «проклятие» размерности (из примера видно, что даже при сравнительно простой структуре применение метода перебора состояний сопряжено с громоздкими выкладками) и необходимость учета всех состояний (или по крайней мере, относящихся к одному из качественных состояний).

Данные о состояниях элементов мостиковой структуры

Номер состояния

Состояние элементов

Вероятность состояний

Выражения для определения энтропии Np

Количество энтропии, бит

1

2

3

4

5

1

1

1

1

1

1

p1p2p3p4p5

p1p2p3p4p5log2(p1p2p3p4p5)

–0,4488

2

0

1

1

1

1

p2p3p4p5q1

q1p2p3p4p5log2(q1p2p3p4p5)

–0,2578

3

1

0

1

1

1

p1p3p4p5q2

p1q2p3p4p5log2(p1q2p3p4p5)

–0,2578

4

1

1

0

1

1

p1p2p4p5q3

p1p2q3p4p5log2(p1p2q3p4p5)

–0,2578

5

1

1

1

0

1

p1p2p3p5q4

p1p2p3q4p5log2(p1p2p3q4p5)

–0,2578

6

1

1

1

1

0

p1p2p3p4q5

p1p2p3p4q5log2(p1p2p3p4q5)

–0,2578

7

0

1

0

1

1

p2p4p5q1q3

q1p2q3p4p5log2(q1p2q3p4p5)

–0,0518

8

0

1

1

0

1

p2p3p5q1q4

q1p2p3q4p5log2(q1p2p3q4p5)

–0,0518

9

0

1

1

1

0

p2p3p4q1q5

q1p2p3p4q5log2(q1p2p3p4q5)

–0,0518

10

1

0

0

1

1

p1p4p5q2q3

p1q2q3p4p5log2(p1q2q3p4p5)

–0,0518

11

1

0

1

0

1

p1p3p5q2q4

p1q2p3q4p5log2(p1q2p3q4p5)

–0,0518

12

1

0

1

1

0

p1p3p4q2q5

p1q2p3p4q5log2(p1q2p3p4q5)

–0,0518

13

1

1

0

1

0

p1p2p4q3q5

p1p2q3p4q5log2(p1p2q3p4q5)

–0,0518

14

1

1

1

0

0

p1p2p3q4q5

p1p2p3q4q5log2(p1p2p3q4q5)

–0,0518

15

0

1

0

1

0

p2p4q1q3q5

q1p2q3p4q5log2(q1p2q3p4q5)

–0,0083

16

1

0

1

0

0

p1p3q2q4q5

p1q2p3q4q5log2(p1q2p3q4q5)

–0,0083

Примечание. В таблице представлены только работоспособные состояния элементов.

Заключение

Основное назначение данного метода – оценка качественного и количественного содержания информации, полученная на основе перебора состояний элементов структуры. Интеграция данного метода в среду оценки структурной надежности через меру неопределенности информации позволяет определить усредненное по параметрам состояние технической системы. С помощью полученных математических выражений можно рассчитывать количество информации отдельно для работоспособного и неработоспособного состояний системы.

Рассматривая различные варианты структур системы, используя предлагаемый метод, можно выбрать более надежную структуру с позиции наличия в ней определенного количества меры неопределенности информации.

Метод справедлив в случае нормировки количества энтропии согласно [4] и подлежит формализации, что позволяет реализовать его через программную среду.

Работа выполнена при поддержке гранта РФФИ №15-08-01473.

Рецензенты:

Гафнер Ю.Я., д.ф.-м.н., зав. кафедрой общей и экспериментальной физики, Хакасский государственный университет им. Н.Ф. Катанова, г. Абакан;

Кочетков В.П., д.т.н., профессор кафедры электроэнергетики, Хакасский технический институт (филиал), Сибирский федеральный университет, г. Абакан.