Главная

Популярная публикация

Научная публикация

Случайная публикация

Обратная связь

ТОР 5 статей:

Методические подходы к анализу финансового состояния предприятия

Проблема периодизации русской литературы ХХ века. Краткая характеристика второй половины ХХ века

Ценовые и неценовые факторы

Характеристика шлифовальных кругов и ее маркировка

Служебные части речи. Предлог. Союз. Частицы

КАТЕГОРИИ:






Інформація, Означення, Властивості




Інформація — одне з головних понять кібернетики. Незважаючи на інтуїтивну зрозумілість терміна «інформація» та його велике значення для багатьох наукових дисциплін, не існує його загальноприйнятого визначення. У побуті слово «інформація» ототожнюється зі змістом якихось відомостей, які можуть набирати форми усного повідомлення, листа, доповіді, результатів деякого дослідження, спостереження тощо.

Залежно від галузі дослідження та від класу розв’язуваних задач користуються різними визначеннями інформації. Розглянемо кілька підходів до визначення інформації.

Інформація — це сукупність сигналів, сприйманих нашою свідомістю, які відбивають ті чи інші властивості об’єктів і явищ зовнішнього світу. Природа цих сигналів передбачає наявність принципової можливості їх зберігання, передавання та обробки [12].

У кібернетиці, визначаючи термін «інформація», акцентують увагу на тому факті, що вона усуває невизначеність, розуміючи інформацію як повідомлення, відомості про якусь подію, чиюсь діяльність чи розвиток якогось процесу, що зменшує нашу необізнаність про зазначені явища.

Більш повно можна визначити інформацію, зіставляючи це поняття з іншими важливими поняттями того самого термінологічного ряду, а саме: «знання» і «дані».

Під даними, як правило, розуміють інформацію, подану в певних формах, адекватних можливим процесам її обробки.

Знання — це інформація, на основі якої за допомогою логічних міркувань можна дістати певні висновки.

Розглянемо взаємозв’язок між цими поняттями. У світі безперервно відбуваються події, що полягають у змінюванні станів об’єктів. Ці події (точніше, не вони самі, а люди, які планують або реєструють їх) породжують повідомлення, які можна зафіксувати на довільному носії в деякій знаковій системі. Сукупність повідомлень та фактів про реальні події, що не співвіднесені з можливостями їх використання, називають даними.

Якщо ці дані досягають певного споживача і якщо він співвідносить здобуті дані з певними можливостями їх використання (наприклад, формулює деяку нову задачу управління), то в цьому разі дані несуть певні знання. Отже, знання — це комунікація, зв’язок об’єкта і спостерігача (знання спостерігача про об’єкт).

Якщо ж спостерігач розв’язує певну задачу управління об’єктом, то повідомлення, передані за допомогою даних, які безпосередньо корисні йому під час розв’язування задачі, розглядатимуться як інформація. Таким чином, інформація існує лише в системі, що складається зі спостерігача, задачі та об’єкта дослідження.

 

6. Економічна інформація та її властивості

Як правило, економічною інформацією вважають фінансово-господарську документацію та показники, що містяться в ній. Але економічна інформація може бути усвідомлена, проаналізована та раціонально використана тільки під час вивчення економічних систем, процесів управління в них та конкретних задач, що розв’я­зуються в системах управління. Тому в загальному випадку під економічною інформацією можна розуміти інформацію, що виникає у процесі підготовки й здійснення виробничо-господарської діяльності та використовується для управління цією діяльністю.

Отже, економічна інформація — це сукупність повідомлень, зміст яких необхідний на різних рівнях планування та управління економічними об’єктами. Із цього погляду під економічною інформацією розуміють]:

· знання спостерігача про економічний об’єкт;

· якісні та кількісні характеристики компонентів економічної системи (ЕС);

· сукупність взаємозв’язків між компонентами ЕС;

· відомості, що зменшують невизначеність ситуації в ЕС для спостерігача з погляду розв’язання певної задачі управління;

· нематеріальні складові системи — знання, навички, методи, точніше інформаційні схеми (або інформаційні підсистеми) економічної системи;

· повідомлення, що циркулюють в економічній системі, якими вона обмінюється із середовищем та з іншими економічними системами;

· деякі загальновизнані знання, відомості, правила та звичаї, якими керуються люди й колективи у своїй виробничо-економічній діяльності. Вони існують у вигляді актів державно-економічного законодавства, правових норм господарської діяльності, «контрольних цифр» і показників планування тощо.

 

7. Дані та операції з ними

У ході інформаційного процесу дані перетворюються з одного виду на інший за допомогою певних методів. Обробка даних містить багато різних операцій. Розглянемо основні операції, виконувані з даними:

ü збір даних — нагромадження даних з метою забезпечення повноти тієї чи іншої інформації для прийняття рішень;

ü формалізація даних — зведення даних, здобутих із різних джерел, до однакової форми з метою зробити їх порівнянними;

ü фільтрація даних — відсіювання зайвих (таких, в яких немає потреби під час прийняття рішень) даних. При цьому має знижуватись рівень «шуму» і зростати достовірність та адекватність даних;

ü сортування даних — впорядкування даних за деяким критерієм з метою їх якомога зручнішого використання;

ü архівування — організація зберігання даних у зручній, компактній формі з метою зниження економічних витрат на зберігання та підвищення надійності інформаційної системи (ІС);

ü захист — комплекс дій, спрямованих на запобігання втратам, модифікації або несанкціонованому доступу до даних та їх тиражуванню;

ü транспортування — приймання та передавання даних між віддаленими учасниками інформаційного процесу;

ü перетворення даних — тобто перетворення даних з однієї форми або структури на іншу. Таке перетворення може бути по­в’язане зі зміною типу фізичного носія. Наприклад, у результаті сканування дані, що містяться на паперовому носії, набирають електронної форми. Перетворюють дані передусім з метою їх транс­портування. Так, для передавання цифрових даних за допомогою телефонних мереж необхідно перетворити їх до аналогового вигляду за допомогою спеціального пристрою — модема.

Форми подання даних, структури даних. Робота з великими обсягами інформації автоматизується набагато простіше, коли дані впорядковані, тобто утворюють певну структуру. Структура інформації — це те, що відбиває взаємозв’язки між її складовими (елементами).

Якщо дані зберігаються в організованій формі, тобто певним чином впорядковані (структуровані), то кожний елемент даних набуває нової властивості, яку можна назвати адресою, що визначає розміщення, розташування, місцезнаходження цього елемента стосовно решти.

Найпоширенішими є такі три типи структур: лінійні, ієрар­хічні, табличні.

Лінійні структури — це добре відомі списки. Список — найпростіша структура даних, в якій кожний елемент однозначно визначається своїм номером. Наприклад, журнал відвідування студентами занять має структуру списку, оскільки кожний студент групи зареєстрований під своїм унікальним номером. Отже, лінійні структури даних — це впорядковані структури, в яких адреса елемента однозначно визначається його номером.

Табличні структури відрізняються від лінійних тим, що елементи даних визначаються адресою комірки, яка складається не з одного параметра, а з кількох. Зокрема, для прямокутних таблиць адреса комірки визначається номером рядка та номером стовпця. Згадуваний уже журнал відвідування можна розглядати і як табличну структуру. Узагальненням двовимірних (прямокутних) таблиць є багатовимірні таблиці.

Ієрархічні структури. Дані, які важко подати у вигляді списків та таблиць, часто подають у вигляді ієрархічних структур. В ієрархічній структурі адреса кожного елемента визначається шляхом доступу (маршрутом), що веде з вершини структури до кожного елемента.

Структури у вигляді списків і таблиць найпростіші. Ними легко користуватись, а до того ж їх неважко впорядковувати. Основним методом впорядкування є сортування. Дані можна відсортовувати за довільно обраним критерієм, наприклад, за абеткою, за зростанням порядкового номера тощо.

Але прості структури, незважаючи на всю їхню зручність, мають певні недоліки. Передусім їх важко поновлювати, оскільки з додаванням до таких впорядкованих структур довільного елемента можуть змінюватись адреси інших елементів. Тому в системах автоматичної обробки інформації необхідні спеціальні засоби для розв’язання цієї проблеми.

Ієрархічні структури за формою складніші, але в них не постає проблем з оновленням даних. Їх легко розвивати, створюючи нові рівні. Недоліком ієрархічних структур є трудомісткість запису адреси елемента, зумовлена зростанням шляху доступу, а також складність їх упорядкування.

 

8. Кодування інформації

Кодування можна визначити як процес подання інформації у вигляді деякої послідовності символів (кодових комбінацій). При цьому таку послідовність, у свою чергу, можна подати (перекодувати) у вигляді сукупностей фізичних сигналів тієї чи іншої природи — акустичних, оптичних, електричних тощо.

Наведемо приклад природного кодування. Нехай ви спостерігаєте деякий пейзаж. До вашого ока надходить інформація про це у вигляді світлових сигналів (фотонів). Ці сигнали сітківкою ока перекодуються в інші сигнали, що по нейронних ланцюгах надходять до головного мозку. Там ці сигнали перекодовуються в образи, які далі перекодовуються в певні відчуття.

Проте якщо потрібно цю інформацію зафіксувати на папері, її доводиться перекодовувати у вигляді букв та їх поєднань. А щоб цю інформацію повідомити комусь по телефону, її необхідно ще перекодувати у звукові коливання. Потім телефон ще раз закодує звукові коливання в електричні імпульси, які по телефонних лініях (каналах зв’язку) надійдуть на приймальний пристрій адресата, де відбудеться декодування електричних імпульсів у звукові коливання. Нарешті, ці коливання надійдуть адресатові (до його вуха), де він їх декодує в образи, або в текст.

Наведемо більш строге визначення кодування. Нехай дано довільну множину А, яку потрібно відобразити в іншу множину В. У цій множині В є скінченна кількість символів (знаків), що називається алфавітом. Наприклад, в абетці Морзе три символи (крапка, тире і прогалина), в англійській мові — 26 букв плюс прогалина і т. ін.

Кількість різних символів (букв), що входять до алфавіту, називається обсягом алфавіту. У цій множині В за певними правилами можна будувати послідовності символів, що називаються словами.

Кодуванням називається відображення довільної множини А у множину скінчених послідовностей (слів), утворених за допомогою деякого алфавіту множини В, а декодуванням — обернене відображення.

Кодом називається сукупність знаків (символів) алфавіту В і слів, складених із них за певними правилами і призначених для однозначного відображення множини А у множину В.

До будь-якої системи кодування висуваються такі основні вимоги:

1) взаємна однозначність перетворень відображуваної множини А у множину В, що її відображує в результаті кодування та оберненого перетворення (декодування) — необхідна умова відсутності помилок в інтерпретації вихідної інформації;

2) економічність кодування, забезпечується, насамперед, мінімі­зацією середньої довжини комбінацій, а отже, і довжини інфор­маційних текстів, завдяки чому заощаджується не лише час передавання тексту, а й носії інформації;

3) збоєстійкість, тобто можливість виявлення та виправлення помилок у кодових комбінаціях під впливом тих чи інших перешкод та збоїв.

Схематичне зображення системи зв’язку наведено на рис. 3.1. Ця схема відбиває найбільш істотні елементи будь-якої системи зв’язку: комп’ютерної мережі, системи супутникового чи мобільного зв’язку, розмовного каналу між двома співрозмовниками тощо.

Рис. 3.1. Принципова схема системи зв’язку

Поняття про цифровий код. Розглянемо питання про вибір цифрового алфавіту для кодування величин, тобто про вибір системи числення.

У будь-якій позиційній системі числення деяке число N визначається виразом

,

де а — основа системи числення (обсяг цифрового алфавіту); n — кількість розрядів у числі, i — порядковий номер розряду; ki — коефіцієнт, що може набувати а різних значень ki = 0, 1, 2, …, (а – 1).

 

9. Ентропія як міра ступеня невизначеності

Цю величину (за аналогією зі статистичною фізикою) називають ентропією. Отже, ентропія випробування α подається у вигляді

.

Властивості ентропії. 1. Н (a) ³ 0 — додатно визначена функція ймовірностей Р (Аi). Справді:

.

2. Н (a) = 0 Þ якщо Pj = 1, решта Pі = 0. У цьому випадку невизначеності немає:

, а решта членів .

3. max H (a) = max[–S P (Ai)log P (Ai)] = log K при P (A 1) = … =
= P (Ak) = , тобто max H (a) досягається за рівноможливих результатах.

Розглянемо два незалежні випробування (табл. 4.3).

Таблиця 4.3

X X 1 X 2 Xn
P p 1 p 2 pn
Y Y 1 Y 2 Ym
P q 1 q 2 Qm

Означення. Об’єднанням двох систем X і Y із можливими станами x = { x 1, …, xn } і y = { y 1, …, ym } називають складну систему (X, Y), стан якої (xi, yj) містить усі можливі значення (комбінації) станів xi, yj систем X, Y.

Очевидно, що кількість можливих станів системи (X, Y) буде nm. Нехай Pij — імовірність того, що система (X, Y) перебуватиме у стані (xi, yj): Pij = P [(X = xi), (Y = yi)] (табл. 4.4).

Таблиця 4.4

  x 1 x 2 xn
y 1 P 11 P 12 P 1 n
y 2 P 21 P 22 P 2 n
ym Pm 1 Pm 2 Pmn

За означенням маємо:

, .

Якщо системи X і Y незалежні, то Pij = piqj. Звідси випливає:

Отже,для незалежних систем виконується рівність: H (X, Y) =
= H (X) + H (Y).

Цей висновок можна узагальнити на скінченну кількість систем: у результаті об’єднання незалежних систем їхні ентропії додаються:

.

Умовна ентропія. Нехай маємо дві системи X і Y, які в загаль­ному випадку залежні. Припустимо, що система X набула зна­чення xi. Позначимо через P (yj / xi) умовну ймовірність того, що система Y набуде стану yj за умови, що система X перебуває у стані xi:

Визначимо умовну ентропію системи Y за умови, що система Х перебуває у стані хi:

(4.1)

де М Хi — оператор умовного математичного сподівання величини, що міститься в дужках, за умови Х ~ xi.

Умовна ентропія залежить від того стану xi, якого набула система Х; для одних станів вона більша, для інших менша. Визначимо середню або повну ентропію системи Y, ураховуючи, що система може набувати будь-яких значень. Для цього кожну умовну ентропію (4.1) помножимо на ймовірність відповідного стану Рi, а далі всі такі добутки додамо.

Отже, позначимо повну умовну ентропію через Н (Y / Х). Тоді величина

(4.2)

за означенням буде повною умовною ентропією.

Скориставшись формулою (3.1) та взявши до уваги, що piH ´
´ (Y / xi) = Pij, можна одержати:

. (4.3)

Величина Н (Y / Х) характеризує ступінь невизначеності системи Y, що залишається після того, як стан системи Х цілком визначився. Її називають повною умовною ентропією системи Y відносно Х.

Для умовної ентропії справджується таке твердження: якщо дві системи Х та Y поєднуються в одну, то ентропія об’єднаної системи буде дорівнювати сумі ентропії однієї з них та умовної ентропії іншої щодо першої:

Н (Х, Y) = Н (Х) + Н (Y / Х); Н (Х, Y) = Н (Y) + Н (X / Y). (4.4)

У частинному випадку, коли системи Х і Y незалежні, тобто
Н (Y / Х) = Н (Y), маємо рівність:

Н (Х, Y) = Н (Х) + Н (Y),

а в загальному випадку виконується нерівність:

Н (Х, Y) £ Н (Х) + Н (Y). (4.5)

Співвідношення (4.5) випливає з того, що повна умовна ен-
тропія не може перевищувати безумовної: Н (Y / Х) £ Н (Y).

Розглянемо інший крайній випадок, коли станом однієї із систем Х цілком визначається стан іншої Y. Тоді Н (Y / Х) = 0, а отже, маємо

Н (Х, Y) = Н (Х) = Н (Y).

Інтуїтивно зрозуміло, що ступінь невизначеності системи не може зрости через те, що стан якоїсь іншої системи став відомим. Зі співвідношення (4.5) випливає, що невизначеність системи, її ентропія досягає максимуму, коли система незалежна.

 

10. Альтернативні підходи до визначення кількості інформації

С емантичний підхід. Один із методів обчислення кількості семантичної інформації полягає в тому, щоб визначати її через так звану логічну імовірність, що являє собою ступінь підтвердження тієї чи іншої гіпотези. При цьому кількість семантичної інформації, що міститься в повідомленні, зростає зі зменшенням ступеня підтвердження гіпотези. Отже, якщо логічна ймовірність дорівнює одиниці, тобто якщо вся гіпотеза побудована на відомих даних та цілком підтверджується повідомленням, то таке повідомлення не приносить адресатові нічого нового і семантична інформація дорівнює нулю. (Наприклад, повідомлення «Волга впадає в Каспійське море».) І навпаки, зі зменшенням ступеня підтвердження гіпотези (чи, інакше кажучи, апріорного знання) кількість семантичної інформації, що її доставляє повідомлення, зростає.

З описаним підходом до визначення інформаційної змістовності повідомлень стикається запропонована Ю. Шрейдером ідея, що ґрунтується на врахуванні «запису знань» (тезауруса) одержувача.

Тезаурусом (грец. «скарб») називають словник, в якому наведено не тільки значення окремих слів, а й змістовні зв’язки між ними (наприклад, тлумачний словник Даля).

Прагматичний підхід. Визначаючи інформацію, ми зазначали, що однією з властивостей інформації є використання її у процесах управління. А коли інформація використовується для управління, то її, природно, належить оцінювати з позицій корисності, цінності, доцільності для досягнення поставленої мети управління.

Тому кожне одержуване ланками управління повідомлення важливо оцінювати не з погляду пізнавальних характеристик, а з прагматичного, тобто з боку корисності чи цінності для виконання функцій управління.

Виходячи з таких міркувань, А. Харкевич запропонував міру цінності інформації I ц визначати як зміну ймовірності досягнення мети в разі отримання цієї інформації:

,






Не нашли, что искали? Воспользуйтесь поиском:

vikidalka.ru - 2015-2024 год. Все права принадлежат их авторам! Нарушение авторских прав | Нарушение персональных данных