ТОР 5 статей: Методические подходы к анализу финансового состояния предприятия Проблема периодизации русской литературы ХХ века. Краткая характеристика второй половины ХХ века Характеристика шлифовальных кругов и ее маркировка Служебные части речи. Предлог. Союз. Частицы КАТЕГОРИИ:
|
Формула Шеннона. Информационная энтропия.В кибернетике источник информации обычно представляется в виде следующих друг за другом в случайном порядке сообщений. Пусть источник посылает k сообщений о событиях, характеризуемых каждое своей вероятностью рi. Для оценки среднего количества информации, приходящегося на одно сообщение К.Шеннон предложил следующую формулу
Таким образом, формула Шеннона определяет среднее количество информации, приходящееся на одно в серии из k сообщений. Количество информации, приходящееся в среднем на одно сообщение, можно рассматривать, как меру неопределенности сведений об источнике информации, которая имела место до получения сообщения, и была устранена после получения этого сообщения. Мера неопределенности сведений об источнике информации называется информационной энтропией (Н). Математическая запись информационной энтропии совпадает с формулой среднего количества информации:
Если источник выдает сведения об одном достоверном событии, то информационная энтропия будет минимальна и равна 0, т.е. неопределенности сведений нет. Если источник выдает k равновероятный сообщений, то вероятность каждого сообщения рi. будет равна 1/ k. Тогда информационная энтропия будет максимальна и равна
Эта формула называется формулой Хартли. Согласно этой формуле, чем больше число возможных состояний системы k, тем больше ее информационная энтропия. Общее количество информации рассматривается как разность значений информационной энтропии до и после получения информации:
I = Hдо – Hпосле
Количество информации может быть как положительным, так и отрицательным в зависимости от того, приближаемся мы к цели или удаляемся от нее по мере получения информации (как в детской игре – «тепло – холодно»). По информационной энтропии можно определять степень детерминированности системы. Условный показатель уровня детерминированности ввел У.Эшби:
где Hmax – максимальная энтропия, которой соответствует наименьшая определенность (детерминированность) системы, Если этот показатель R лежит в интервале 1 ÷ 0,3, то система детерминированная, в интервале 0,3 ÷ 0,1 – вероятностно-детерминированная, если же этот показатель меньше 0,1, то система вероятностная.
Не нашли, что искали? Воспользуйтесь поиском:
|