Научный журнал
Фундаментальные исследования
ISSN 1812-7339
"Перечень" ВАК
ИФ РИНЦ = 1,674

МЕРА ИНФОРМАЦИИ В ЗАДАЧЕ ОЦЕНКИ БЕСПЕРЕБОЙНОЙ РАБОТЫ ТЕХНИЧЕСКОЙ СИСТЕМЫ

Дулесов А.С. 1 Агеева П.А. 1
1 ГОУ ВПО «Хакасский государственный университет им. Н.Ф. Катанова»,Абакан
Представлены основополагающие факторы определения меры информации для технических систем. Среди многообразия форм энтропии выделена информационная энтропия. Дано пояснение задач, касающихся определения структурной и статистической мер информации для систем транспорта материальных ресурсов. Предложены математические выражения вычисления меры энтропии для систем с последовательным и параллельным соединением элементов. В основу вычислений положены вероятности отказа и работоспособных состояний элементов системы.
мера информации; энтропия; техническая система; надежность
1. Кузнецов Н.А., Баксанский О.Е., Гречишкина Н.А. Фундаментальное значение информатики в современной научной картине мира // Информационные процессы. – 2006. – Т.6, №2. – С. 81–109.
2. Кузнецов Н.А. Информационное взаимодействие в технических и живых системах // Информационные процессы. – 2001. – Т.1, №1. – С. 1–9.
3. Прангишвили И.В. Энтропийные и другие системные закономерности: Вопросы управления сложными системами // Ин-т проблем управления им. В.А. Трапезникова. – М.: Наука, 2003. – 428 с.
4. Лийв Э.Х. Инфодинамика. Обобщённая энтропия и негэнтропия. – Таллинн: АО Юхисэлу, 1998. – 200 с.

Информатика изучает закономерности информационного взаимодействия применительно ко всем классам объектов: естественных, искусственных и смешанных. Её объектом исследования является информация как совокупность имеющихся знаний [1].

Информацию можно измерять и первой формулой вычисления её количества стала формула К. Шеннона, согласно которой информация возрастает с уменьшением вероятности отдельного сообщения. В этом случае информация определяется как мера свободы какой-либо системы выбора в выделении сообщения, то есть как логарифм доступных выборов.

Любая техническая система несет в себе информацию, являющуюся отражением физических (материальных) явлений. Несмотря на наличие в такой системе не только физических, но и информационных, экономических и иных процессов, ограничимся рассмотрением физических взаимодействий. Свойства системы таковы, что они предполагают наличие в ней элементов и связей (различной природы) между ними. Отслеживая различного рода связи, можно видеть результат взаимодействия не только элементов, но и всей системы в целом.

В процессе функционирования элементы системы несут информацию о своем состоянии, фиксируя тем самым определенные свойства воздействующих на них внешних и внутренних процессов, явлений и объектов. Обладая возможностью фиксировать измененное состояние рассматриваемой системы от воздействия на неё других материальных систем, имеются основания для приобретения информации об этих системах. Сложная техническая система, испытывая воздействия, не исключает наличия способностей интерпретировать любым образом эффект влияния для адаптации к внешним изменяющимся условиям.

Имея определенное количество информации, идущей от внешних систем, расшифровав и преобразовав её, можно через систему управления запустить программу адаптации. Поскольку необходимость учета и использования информаций не вызывает сомнений, имеются подходы в определении её количества [2]: энтропийный; алгоритмический; комбинаторный; семантический и прагматический. Первый подход получил применение в задачах количественного определения сложности системы и уровня внешних воздействий, второй - для описания (воссоздания) объекта, четвертый - для описания содержательной части сообщения, передаваемого её получателю, пятый - обращает внимание на полезность передаваемой информации.

Первый подход, с точки зрения анализа состояния системы, способной надежно (бесперебойно) выполнять заданные функции, например, по передаче энергии от источников к потребителям, можно считать приемлемым.

Постановка задачи исследований. Существует четыре формы энтропии [3]:

1. Энтропия как мера неопределенности состояния любой упорядоченной физической системы, или поведения любой системы.

2. Термодинамическая энтропия микрочастиц, или молекулярного (микроскопического) множества.

3. Информационная энтропия (неопределенность информации) сведений о некоторой информационной системе.

4. Энтропия, или неопределенность поведения, любой не вполне упорядоченной системы вплоть до макроскопических множеств.

Первая и третья формы энтропии связаны с неопределенностью состояния системы и пригодны для исследования неживых объектов и процессов. При этом энтропия не имеет своей размерности.

Далее информацию будем рассматривать как процесс, взаимосвязь, отношение между элементами системы. При этом важна информация, которая указывает на наличие отклонений параметров системы от заданных условий (или значений) под воздействием сторонних факторов. Чем больше уровень отклонений параметров от заданных значений, тем выше энтропия и, следовательно, больший хаос наблюдается в системе.

Для определения энтропии должна быть известна цель (или назначение системы), а также условная вероятность её достижения в зависимости от действия факторов, оказывающих существенное влияние на систему [4].

Цель исследований - определение обобщенной энтропии, обусловленной воздействием внешних вероятностных факторов на работоспособность отдельных элементов и системы в целом.

Понятие «обобщенная энтропия» означает, что её можно определить для всех моделей, как физических систем, так и умственных (или интеллектуальных) систем. Обобщенной энтропии модели присущи конечные величины, которые можно определить в виде численных значений.

Определяя обобщенную энтропию, следует исходить из необходимости формирования причинно-следственных связей в системе. Например, для транспортных сетей (или систем) выявляются причины, по которым происходит временное нарушение функционирования элементов, в результате которого потребители недополучают энергию. Чтобы определить величину такой энтропии, необходимо предварительно выделить возможные каналы (цепочки) связи источника с потребителем.

Далее предложим меры информации и возможности их применения в задаче оценки надежности технических систем.

Структурная мера информации

Каждый элемент технической системы с точки зрения надежности функционирования может находиться в одном из двух состояний: работа или отказ. Далее будем рассматривать только такого рода состояния, без учета, например, состояний ремонта, недозагрузки, простоя и т.д. Переход от одного состояния к другому свидетельствует о том, что элемент генерирует сигналы, являясь их источником. Например, при выходе из строя элемента подается сигнал о том, что он перешел в состояние аварийного простоя, а после ремонта - в работоспособное состояние. В нашем случае, если элемент i может находиться в двух непересекающихся состояниях, то от него можно (не без оговорок) получить Ni = 2 состояния (сигнала).

Поскольку система имеет в своем составе n элементов, от каждого из них получаем по 2 сигнала, тем самым имеем сигнальную систему. Частота появления сигналов за рассматриваемый промежуток времени будет свидетельствовать о случайном (хаотическом) поведении системы. При этом следует оговориться: по продолжительности действия сигналы равны.

Имея количество элементов в системе ,равное n, можно определить количество возможных состояний системы, то есть количество сигналов N = 2n. Полное число состояний определяется как произведение состояний отдельных элементов. Данное выражение справедливо при условии, что элементы функционируют независимо, а процесс фиксации состояния системы представляет собой поток генерации сигналов от её элементов.

Из вышесказанного видно, что каждое состояние элемента можно закодировать двоичным кодом (0 и 1) длины Ni = 2. Общая длина сообщения от системы: N = N1 N2 ... Nn.

В рассматриваемой структуре системы можно выделить несколько путей, которые строятся по принципу: связь источник-потребитель определяется направлением потока энергии. Каждый путь - цепочка из последовательно соединенных элементов, генерирующая сигналы, записанные двоичными кодами. Поскольку элемент имеет длину Ni = 2, то длина пути j определится как Lj = N1 N2 ... Nk, где k - количество элементов, входящих в рассматриваемый путь. Общая длина сообщения должна быть равна сумме длин путей: Nn = Σ Lj.

Величина L может быть принята в качестве меры количества информации. Однако выбор L в виде меры количества информации малопригоден, поскольку не выполняется условие линейного сложения количества информации, то есть отсутствует условие аддитивности.

Устраняя эти недостатки, Хартли ввел логарифмическую (аддитивную) меру количества информации, позволяющую оценивать количество информации, содержащейся во множестве состояний системы: H = log2N. Формула справедлива для случая: если в системе выделить путь длиной Lj, то он будет нести в себе не менее log2Lj бит информации. Бит - единица количества информации в двоичной системе счисления, получаемая при осуществлении одного из двух равновероятных состояний.

Покажем на примере, как работает мера Хартли. Пусть имеется сигнальная система, состоящая из n = 8 элементов. Каждый элемент подает сигнал с интервалами 0,5 ед. о его работе и отказе. Число возможных состояний N = 2n = 28 = 64. Энтропия появления в одном из элементов какого-либо из равновероятных состояний равна: H = log2N = log264 = 6 бит.

Данная формула для нашего случая не лишена недостатков, а именно: элементы не различимы по своим характеристикам; рассматриваемые состояния элемента учитываются как равновероятные; не способна отразить свойства каждого из состояний и др. Тем самым формула не учитывает различимость и различность рассматриваемых состояний системы.

С тем, чтобы постараться учесть различность рассматриваемых состояний, необходим статический вероятностный подход в получении конкретного количества информации.

Статистическая мера информации

В процессе эксплуатации системы состояния элементов фиксируются как некоторые события, сообщения о которых регистрируются. За рассматриваемый интервал времени состояние элемента может меняться многократно, так как природа таких событий вероятностна. Когда приходит сообщение о происходящих событиях, вероятность появления которых стремится к единице, то такое сообщение малоинформативно. Полученная информация от эффективных систем свидетельствует о том, что элементы системы обладают высоким уровнем надежности (вероятностью р работоспособности), её энтропия H близка к нулю. Энтропия в системе будет прирастать ∆H, если частота появления событий увеличится (вероятность q отказов растет) и, следовательно, вероятности состояний (q отказа и р работоспособности) элементов будут сближаться по величине (рисунок).

488

Графическая интерпретация
приращения энтропии

Рост энтропии ∆H отражает тенденцию к развитию хаотических процессов в системе, что свидетельствует о старении элементов системы, отсутствии должного управления и организационного поведения. Поэтому эксплуатационнику важно знать: оправдывает ли система возложенные на неё функции.

Анализируя поведение системы, события рассматривают как возможные исходы некоторого опыта. Все исходы рассматриваемого пути составляют группу событий, или ансамбль.

Ансамбль включает в себя события типа отказ и восстановление, сумма вероятностей исходов которых равна единице, то есть pi + qi = 1. Здесь pi и qi - вероятности безотказной работы и отказа элемента i. Один элемент генерирует сигналы (отказ и работа) с вероятностями p и q. Вероятность того, что элемент генерирует сообщение о своем состоянии, определяется по выражению: Р = ppqq, в котором значения степеней означают доли участия каждого из событий в образовавшемся сообщении (p + q = 1). Данная функция аддитивна и позволяет посредством формулы Шеннона определить меру информации для элемента i:

174, (1)

при условии p + q = 1

Выражение (1) предполагает, что элемент функционирует независимо от системы. Значения вероятностей здесь имеют статистическую природу, за которыми скрыты факторы воздействия, приводящие к изменению состояния элемента.

Если ставится задача определения энтропии всей системы в целом, то меру информации для k элементов (каждый из которых имеет по два состояния) можно определить по выражению:

175, (2)

при условии 176.

Выражение (2) (формула Шеннона) отражает наличие общей меры информации или обобщенной энтропии, со свойствами которой можно ознакомиться, имея под рукой, например источники [3, 4] и другие.

Для использования (2) необходима статистика о поведении системы: количество отказов и восстановлений; время пребывания в работоспособном состоянии и состоянии отказа и др.

Предлагаемые формулы дают более полное представление об источнике информации, чем аддитивная мера Хартли. Имея энтропию по (2) можно судить о состоянии системы в целом, отслеживать тенденции к её росту или снижению. Тем не менее следует заметить, что это выражение имеет общий вид. Для проектировщиков и эксплуатационников данная формула малопригодна, поскольку их интересуют индивидуальные качества поведения каждого из элементов системы. Для частных случаев следует определить Σp и Σq исходя из требований, предъявляемых к решению поставленной задачи. Например, одним из таких требований является определение меры информации в задаче доставки ресурсов (или энергии) от источника к потребителю.

Мера энтропии в задаче перемещения ресурсов

Большой класс задач касается вопросов потерь ресурсов при их перемещении от источников к потребителям. Потери обусловливаются наличием факторов случайного и систематического характера. Так, например, к случайным относят отказы элементов системы. Они вызывают кратковременное или полное прекращение поступления ресурсов к потребителям. При этом поток ресурсов прибывает к потребителю несвоевременно и в ограниченном количестве и по своей природе случаен.

Для такого рода задач можно выделить следующие:

1) задача об определении энтропии состояния потребителя в получении им ресурса;

2) задача об определении энтропии состояния транспортной системы (связи источник-потребитель) в передаче ресурса.

Обе задачи условно идентичны. Принципиальная разница в том, что в первой задаче нас интересует общее состояние потребителя (получает он или нет и в какие моменты времени энергию), а во второй - состояние транспортной системы в целом.

Далее мы не будем рассматривать уровни объемов поставок ресурсов, а ограничимся лишь временем перерывов в поставках, так как полагаем, что энергия (например, электрическая, тепловая и др.) должна поступать к потребителю непрерывным потоком.

Рассмотрим первую задачу, которая может быть решена в практике эксплуатации технической системы. Предполагаем, потребитель функционирует как независимая система. Получаемая им энергия из распределительной системы представляет собой во времени потоковый процесс. Отказы элементов в распределительной системе будут генерировать события о прекращении подачи энергии потребителю в полном объеме. Рассматривая случайный потоковый процесс на выбранном интервале времени и выделяя на нём отрезки времени поступления и прекращения подачи энергии, можно определить вероятности состояний: р - работоспособное (когда потребитель получает энергию в необходимом объеме); q - неработоспособное (потребитель не получает энергию).

Пусть на интервале времени выделено k участков i-го работоспособного и l участков j-го неработоспособного состояния, для которых вероятности определяются как pi = Ti/T и qj = Tj/T, где Ti, Tj и T - соответственно участки времени работоспособного, неработоспособного состояний и выбранный интервал времени. Далее определяется энтропия по выражению:

177 (3)

при условии 178

Величина полученной энтропии будет ограничена на интервале 0 ≤ H ≤ 1,0 и свидетельствовать о степени участия распределительной системы в обеспечении потребителя энергией.

Если потребителя обеспечивают n независимо функционирующих друг от друга распределительных систем или источников, то обобщенная энтропия степени участия всех источников определится как 178, где Hi - энтропия источника i.

Рассмотрим вторую задачу, которая может быть решена в практике проектирования транспортных систем. Построим структурную схему распределительной системы, связывающую источник с потребителем. Структура включает в себя цепочки элементов последовательного, параллельного и смешанного вида. Каждый элемент наделен параметрами: частота отказов и частота восстановлений, время простоя, наработка на отказ и др. На основе этих статистических параметров определяются вероятность работоспособного pi и неработоспособного qi состояний элемента i. Будем считать, что этих показателей будет достаточно для определения энтропии. В процессе определения будем соблюдать условие: сумма всех вероятностей состояния распределительной системы должна быть равна единице. Следовательно, всю структуру системы следует преобразовать (эквивалентировать) до цепи источник-потребитель, то есть до одного элемента, эквивалентного по своему состоянию системе. Для этой цели воспользуемся правилами сложения и умножения вероятностей и учтем их при определении энтропии.

В цепочках события могут рассматриваться как одновременные для двух и более элементов, получившие название совместные. Для них можно определить совместную энтропию (или энтропию объединения событий). В зависимости от того, как соединены между собой элементы сети (последовательно или параллельно) будет различной и совместная энтропия H(АВ). Различия в энтропиях обусловлены событиями в прерывании потоков энергии. Очевидно, что прерывание потока при отказах элементов в последовательных структурах в большей степени ограничивает доставку ресурсов, нежели в параллельных. Предъявляя к рассмотрению цепь из последовательно или параллельно соединенных элементов, предполагается - события (работоспособное состояние и отказы) в ней совместны.

Перейдем к формированию уравнений определения совместной энтропии. Если рассматривать цепь, состоящую из одного i-го элемента, то усредненная вероятность состояния будет равна 180. Для двух и более соединенных в цепь элементов, их усредненная совместная вероятность состояния

181,

где k - количество элементов в цепи. Тогда через величину совместной вероятности можно определить количество информации (энтропию состояния):

18 (4)

Выражение (4) справедливо только для одного из двух состояний цепи. Поскольку события типа «отказ» и «работоспособное состояние» принято считать независимыми, то энтропия определяется из выражения:

183 (5)

при 184.

Вероятность pi в (4) и (5) может приниматься в качестве вероятности безотказной работы элемента, так и вероятности отказа. Например, для цепи, состоящей из двух элементов А и В, совместная энтропия согласно (5) определяется:

  • для последовательного соединения:

185

при условии рapb + (1 - рaрb) = 1;

  • для параллельного соединения:

186

при условии qaqb + (1 - qaqb) = 1, где рapb и qaqb - совместные вероятности работоспособного состояния и состояния отказа элементов А и В.

Чтобы определить энтропию эквивалентной цепи, следует, используя методы эквивалентирования, путей и сечений и др., определить эквивалентные вероятности безотказной работы и отказа, подставить их в выражение (1). Таким образом, вторая задача будет решена.

Заключение

Предложенные выше выражения позволяют определить энтропию состояния потребителя в получении им ресурса и энтропию состояния транспортной системы при передаче энергии от источника к потребителю. Энтропия имеет преимущества перед вероятностями при оценке надежности поставки энергии, поскольку не связана со статистическими законами распределения случайных величин. По величине энтропии можно судить об уровне надежности каналов поставки и выборе оптимального, с точки зрения надежности, варианта продвижения энергии.

Рецензенты:

Булакина Е.Н., д.т.н., доцент, профессор кафедры «Автомобили и автомобильное хозяйство» Хакасского технического института - филиала Сибирского федерального университета, г. Абакан;

Кочетков В.П., д.т.н., профессор, профессор кафедры электроснабжения Хакасского технического института - филиала Сибирского федерального университета, г. Абакан;

Клевцов Г.В., д.т.н., профессор, зав. кафедрой «Физика металлов и наноструктур» Оренбургского государственного университета, г. Оренбург.

Работа поступила в редакцию 13.06.2011.


Библиографическая ссылка

Дулесов А.С., Агеева П.А. МЕРА ИНФОРМАЦИИ В ЗАДАЧЕ ОЦЕНКИ БЕСПЕРЕБОЙНОЙ РАБОТЫ ТЕХНИЧЕСКОЙ СИСТЕМЫ // Фундаментальные исследования. – 2011. – № 12-1. – С. 102-107;
URL: https://fundamental-research.ru/ru/article/view?id=28857 (дата обращения: 28.03.2024).

Предлагаем вашему вниманию журналы, издающиеся в издательстве «Академия Естествознания»
(Высокий импакт-фактор РИНЦ, тематика журналов охватывает все научные направления)

«Фундаментальные исследования» список ВАК ИФ РИНЦ = 1,674