Главная

Популярная публикация

Научная публикация

Случайная публикация

Обратная связь

ТОР 5 статей:

Методические подходы к анализу финансового состояния предприятия

Проблема периодизации русской литературы ХХ века. Краткая характеристика второй половины ХХ века

Ценовые и неценовые факторы

Характеристика шлифовальных кругов и ее маркировка

Служебные части речи. Предлог. Союз. Частицы

КАТЕГОРИИ:






Содержательный подход




Вопрос «как измерить информацию?» очень непростой. Ответ на него зависит от того, что понимать под информа­цией. Но поскольку определять информацию можно по-раз­ному, то и способы измерения тоже могут быть разными.

Выше мы подошли к информации только с одной стороны: выяснили, чем она является для человека. Другую точку зре­ния на информацию, объективную, то есть не связанную с ее отношением к человеку, мы обсудим несколько позже.

Итак, пока остаемся на прежней позиции: информацияэто знания человека. Отсюда следует вывод, что сообщение информативно (содержит ненулевую информацию), если оно пополняет знания человека. Например, прогноз погоды на за­втра — информативное сообщение, а сообщение о вчерашней погоде неинформативно: нам это уже известно.

Нетрудно понять, что информативность одного и того же сообщения может быть разной для разных людей. Напри­мер: 2x2 = 4 информативно для первоклассника, изуча­ющего таблицу умножения, и неинформативно для старше­классника. Отсюда, казалось бы, следует вывод, что сообщение информативно для человека, если оно содержит новые сведения, и неинформативно, если сведения старые, известные.

Получение всяких знаний должно идти от простого к сложному. И тогда каждое новое сообщение будет понят­ным, а значит, будет нести информацию для человека. Сообщение несет информацию для человека, если содержащиеся в нем сведения являются для него новыми и понятными.

Единица измерения информации была определена в науке, которая называется теорией информации. Эта еди­ница называется «бит». Ее определение звучит так: Сообщение, уменьшающее неопределенность знаний в два раза, несет 1 бит информации.

В этом определении есть понятия, которые требуют по­яснения.

Что такое «неопределенность знаний»? Лучше всего это объяснить на примерах.

Допустим, вы бросаете монету, загадывая, что выпадет: орел или решка? Есть всего два варианта возможного ре­зультата бросания монеты. Причем, ни один из этих вари­антов не имеет преимущества перед другим. В таком случае говорят, что они равновероятны.

Так вот, в этом случае перед подбрасыванием монеты неопределенность знаний о результате равна двум.

Игральный кубик с шестью гранями может с равной ве­роятностью упасть на любую из них. Значит, неопределен­ность знаний о результате бросания кубика равна шести.

Еще пример: спортсмены-лыжники перед забегом путем жеребьевки определяют свой порядковый номер на старте. Допустим неопределенность знаний спортсменом своего но­мера до жеребьевки равна ста.

Следовательно, можно сказать так: неопределенность знаний о некотором событии – это количество возможных результатов события (бросания монеты, кубика; вытаскивания жребия).

Вернемся к примеру с монетой. После того, как вы бросили монету и посмотрели на нее, вы получили зрительное сообщение, что выпал, например, орел. Произошло одно из двух возможных событий. Неопределенность знаний уменьшилась в два раза: было два ва­рианта, остался один. Значит, узнав резуль­тат бросания монеты, вы получили 1 бит информации.

Сообщение о том, что произошло одно событие из двух равновероятных, несет 1 бит информации.

А теперь такая задача: студент на экзамене может по­лучить одну из четырех оценок: «5» - - «отлично», «4» -«хорошо», «3» - - «удовлетворительно», «2» - - «неудовле­творительно». Представьте себе, что ваш товарищ пошел сдавать экзамен. Причем, учится он очень неровно и может с одинаковой вероятностью получить любую оценку от «2» до «5». Вы волнуетесь за него, ждете результата экзамена. Наконец, он пришел и на ваш вопрос: «Ну, что полу­чил?» - ответил: «Четверку!».

Вопрос. Сколько бит информации содержится в его от­вете?

Если сразу сложно ответить на этот вопрос, то давайте подойдем к ответу постепенно. Будем отгадывать оценку, задавая вопросы, на которые можно ответить только «да» или «нет».

Вопросы будем ставить так, чтобы каждый ответ уменьшал количество вариантов в два раза и, следователь­но, приносил 1 бит информации.

Первый вопрос:

— Оценка выше тройки?

-Да!

После этого ответа число вариантов уменьшилось в два раза. Остались только «4» и «5». Получен 1 бит информа­ции.

Второй вопрос:

- Ты получил пятерку?

- Нет!

Выбран один вариант из двух оставшихся: оценка -«четверка». Получен еще 1 бит информации. В сумме имеем 2 бита.

Сообщение о том, что произошло одно из четырех рав­новероятных событий несет 2 бита информации.

Метод поиска, на каждом шаге которого отбрасывается половина вариантов, называется методом половинного де­ления.

Решим еще одну частную задачу, применив этот метод а потом выведем общее правило.

На книжном стеллаже восемь полок. Книга может быть поставлена на любую из них. Сколько информации содер­жит сообщение о том, где находится книга?

Задаем вопросы:

- Книга лежит выше четвертой полки?

-Нет.

-Книга лежит ниже третьей
полки?

-Да.

-Книга - на второй полке?

- Нет.

-Ну теперь все ясно! Книга лежит на первой полке!

Каждый ответ уменьшал неопределенность в два раза. Всего было задано три вопроса. Значит набрано 3 бита ин­формации. И если бы сразу было сказано, что книга лежит на первой полке, то этим сообщением были бы переданы те же 3 бита информации.

А сейчас попробуем получить формулу, по которой вы­числяется количество информации, содержащейся в сооб­щении о том, что произошло одно из множества равнове­роятных событий.

Обозначим буквой N количество возможных событий, или, как мы это еще называли, — неопределенность знаний. Буквой i будем обозначать количество информации в сооб­щении о том, что произошло одно из N событий.

В примере с монетой N = 2, i = 1.

В примере с оценками N = 4, i = 2.

В примере со стеллажом N = 8, i = 3.

Нетрудно заметить, что связь между этими величинами выражается формулой:

Действительно: 21 = 2; 22= 4; 23 = 8.

Если величина N известна, а i — неизвестно, то формула становится показательным уравнением для определения i.

Например, пусть на стеллаже не 8, а 16 полок. Чтобы ответить на вопрос, сколько информации содержится в со­общении о том, где лежит книга, нужно решить уравнение:

2i = 16. Поскольку 16 = 24, то i = 4.

Количество информации i, содержащееся в сообщении о том, что произошло одно из N равновероятных событий, определяется из решения показательного уравнения: 2i = N.

Если значение N равно целой степени числа 2 (4, 8, 16, 32, 64 и т.д.), то такое уравнение решается просто: i будет целым числом.

А чему равно количество информации в сообщении о результате бросания игральной кости, у которой имеется шесть граней и, следовательно, N = 6? Решение уравнения

2i = 6

будет дробным числом, лежащим между числами 2 и 3, поскольку 22 = 4, а 23 = 8. С точностью до пяти знаков после запятой решение такое: 2,58496. По таблице 1 можно определить i для различных значений N в диапазоне от 1 до 64.

Таблица 1. Количество информации в сообщении об одном из N равновероятных событий

Алфавитный подход.

А теперь познакомимся с другим способом измерения информации. Этот способ не связывает количество инфор­мации с содержанием сообщения, и называется он алфа­витным подходом.

Все множество используемых в языке символов будем традиционно называть алфавитом. Обычно под алфавитом понимают только буквы, но поскольку в тексте могут встре­чаться знаки препинания, цифры, скобки, то мы их тоже включим в алфавит. В алфавит также следует включить и пробел (промежуток между словами).

Полное число символов алфавита принято называть мощ­ностью алфавита. Будем обозначать эту величину буквой N. Например, мощность алфавита из русских букв и до­полнительных символов равна 54.

Представьте себе, что текст к вам поступает последова­тельно, по одному знаку, словно бумажная ленточка, вы­ползающая из телеграфного аппарата. Предположим, что каждый появляющийся на ленте символ с одинаковой ве­роятностью может быть любым символом алфавита. (В дей­ствительности это не совсем так, но для упрощения примем такое предположение.)

В каждой очередной позиции текста может появиться любой из N символов. Каждый символ несет i бит инфор­мации; число i можно определить из уравнения:

2i = N.

Для N = 54, используя таблицу 1, получаем:

i = 5,755 бит.

Cтолько информации несет один символ в русском тексте! А теперь для того, чтобы найти количество инфор­мации во всем тексте, нужно посчитать число символов в нем и умножить на i.

При алфавитном подходе к измерению информации количество информации от содержания не за­висит. Количество информации зависит от объема текста (то есть от числа знаков в тексте) и от мощности ал­фавита.

Отсюда следует, например, что нельзя сравнивать инфор­мационные объемы текстов, написанных на разных языках, только по объему. У них отличаются информационные веса одного символа так как мощности алфавитов разных язы­ков - различные.

Сформулируем правило, как измерить информацию, ис­пользуя для этого алфавитный подход.

Количество информации, содержащееся в символьном сообщении, равно Кх i, где К— число символов в тексте сообщения, а i-информационный вес символа, который находится из уравнения 2i = N, где N — мощность используемого алфавита.

Применение алфавитного подхода удобно прежде всего при использовании технических средств работы с информа­цией. В этом случае теряют смысл понятия «новые — ста­рые», «понятные -непонятные» сведения. Алфавитный подход является объективным способом измерения инфор­мации в отличие от субъективного, содержательного, под­хода.

Удобнее всего измерять информацию, когда мощность ал­фавита N равна целой степени числа 2. Например, если N = 16, то каждый символ несет 4 бита информации по­тому, что 24 = 16. А если N = 32, то один символ «весит» 5 бит.

Ограничения на максимальную мощность алфавита тео­ретически не существует. Однако есть алфавит, который можно назвать достаточным. С ним мы скоро встретимся при работе с компьютером. Это алфавит мощностью 256 символов. В таком алфавите можно поместить практически все необходимые символы: латинские и русские буквы, цифры, знаки арифметических операций, скобки, знаки препинания. В такой алфавит помещают даже значки, с помощью которых можно чертить рамки, таблицы. Их на­зывают знаками псевдографики.

Поскольку 256 = 28, то один символ этого алфавита «весит» 8 бит. Причем 8 бит информации — это настолько характерная величина, что ей присвоили свое название - байт.

1 байт = 8 бит

Сегодня очень многие люди для подготовки писем, до­кументов, статей, книг используют компьютерные тексто­вые редакторы. С этими средствами вы подробно познако­митесь несколько позже. Они позволяют включать в текст буквы разных алфавитов, математические значки, дают воз­можность чертить таблицы.

Компьютерные редакторы работают с алфавитом мощнос­тью 256 символов. Текст этого учебника набран с помощью компьютерного редактора.

В этом случае легко подсчитать объем информации в тексте. Если одни символ алфавита несет 1 байт информа­ции, то надо просто сосчитать число символов; полученное значение даст информационный объем текста в байтах.

Пусть небольшая книжка содержит 150 страниц; на каждой странице; - 40 строк, в каждой строке - 60 сим­волов. Значит страница содержит 40 х 60 = 2400 байт ин­формации. Объем всей информации в книге:

2400 х 150 = 360 000 байт.

Уже на таком примере видно, что байт — «мелкая» еди­ница. А представьте, что нужно измерить информационный объем научной библиотеки. Какое это будет громадное число в байтах!

В любой системе единиц измерения существуют основные единицы и производные от них. Последние нужны для из­мерения либо очень больших, либо очень маленьких вели­чин.

Для измерения больших объемов информации использу­ются производные от байта единицы.

1 килобайт = 1Кб = 210 байт = 1024 байта

1 мегабайт = 1Мб = 210 Кб = 1024 Кб

1 гигабайт = 1Гб = 210 Мб = 1024 Мб

 






Не нашли, что искали? Воспользуйтесь поиском:

vikidalka.ru - 2015-2024 год. Все права принадлежат их авторам! Нарушение авторских прав | Нарушение персональных данных