Главная

Популярная публикация

Научная публикация

Случайная публикация

Обратная связь

ТОР 5 статей:

Методические подходы к анализу финансового состояния предприятия

Проблема периодизации русской литературы ХХ века. Краткая характеристика второй половины ХХ века

Ценовые и неценовые факторы

Характеристика шлифовальных кругов и ее маркировка

Служебные части речи. Предлог. Союз. Частицы

КАТЕГОРИИ:






Понятие информации, ее свойства, единицы измерения.




Информация занимает в кибернетике центральное место. Уже в самом понятии организации системы заключено условие определенного согласования состояния и деятельности ее подсистем и элементов. Это согласование достигается передачей сообщений по внутрисистемным связям. Кроме того, необходимо непрерывное общение с окружающей средой. Еще более необходима непрерывная передача сообщений для формирования командных сигналов в акте управления. Информационные процессы неотделимы от организации кибернетических систем и управления ими.

В житейском смысле под информацией понимают передачу сообщений о фактах, предметах и событиях, их свойствах, значении, отношении к другим событиям в прошлом, настоящем и будущем. Мы получаем информацию, например, читая газету, услышав телефонный звонок, чувствуя жажду и т.д. Каждое сообщение имеет свой смысл и является сигналом к действию.

Информация – (от латинского informatio – разъяснение, изложение) –

1) осведомление, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п.

2) сведения об окружающем мире, протекающих в нем процессах и т.д., которые воспринимают живые организмы, управляющие машины и другие информационные системы в процессе жизнедеятельности и работы.

В кибернетикепод информацией понимают сведения о каких-либо ранее неизвестных событиях внутри сложной системы или во внешней среде. Не любые сведения, а только новые, ранее неизвестные, т.е. сведения, которые носят случайный характер, которые трудно предвидеть. Поэтому информация связана со случайными событиями и носит вероятностный характер. Количественной оценкой информации занимается теория информации, основы которой заложены Клодом Шенноном и Норбертом Винером.

Дадим определение события. В кибернетике под событием понимают состояние рассматриваемой системы в некоторый момент времени. Информация о событии, зафиксированная в форме определенного сигнала представляет собой сообщение.

 

Свойства информации:

- информация приносит сведения об окружающем мире, которых в рассматриваемой точке пространства и определенный момент времени не было до получения информации;

- информация не материальна, но переносится с помощью материальных носителей;

- информация может быть заключена как в знаках, так и в их взаимном расположении;

- знаки и сигналы несут информацию для получателя, способного их распознать;

 

Как же вычисляется количество информации? Так как информация носит вероятностный характер, то можно предположить, что информация уменьшает неопределенность наших знаний о событии. Чем больше различных возможностей имеет событие, тем сообщение о нем будет более ценно, и тем больше информации оно имеет. Поскольку мерой неопределенности является вероятность события, то и количество информации в каком-либо сообщении будет определяться вероятностью

, (1)

где Ii - количество информации в сообщении, рi – вероятность события, о котором поступила информация. Отсюда следует, чем меньше вероятность некоторого события, тем большее количество информации содержит сообщение о том, что это событие произошло. Если событие достоверное (а вероятность достоверного события равна 1), то сообщение о том, что это событие произошло, не несет информации – логарифм единицы по любому основанию равен 0. Если мы имеем два равновероятных взаимозаменяемых события А и , то вероятность каждого из таких событий равна , а количество информации будет равно 1:

. (2)

Отсюда следует определение единицы информации - 1 бит – это количество информации, которое содержится в сообщении о том, что произошло одно из двух равновероятных событий. На практике используются более крупные единицы: 1 байт = 8 бит, 1 Кбайт = 1024 байта и т.д. Реально представить эти единицы можно, если считать, что книга из 400 стр. содержит 1 Мбайт информации, то 1 ГБайт информации содержится в 1000 таких книг. Оценим количественно характеристики информационных систем человека: в генах человека содержится 105бит информации, емкость памяти ЦНС составляет 109 ÷1013 бит. Количество информации, выдаваемой и воспринимаемой в единицу времени человеком, оценивается такими скоростями – неосознанно - 109 бит/с, осознано – только 102 бит/с.






Не нашли, что искали? Воспользуйтесь поиском:

vikidalka.ru - 2015-2024 год. Все права принадлежат их авторам! Нарушение авторских прав | Нарушение персональных данных