Главная

Популярная публикация

Научная публикация

Случайная публикация

Обратная связь

ТОР 5 статей:

Методические подходы к анализу финансового состояния предприятия

Проблема периодизации русской литературы ХХ века. Краткая характеристика второй половины ХХ века

Ценовые и неценовые факторы

Характеристика шлифовальных кругов и ее маркировка

Служебные части речи. Предлог. Союз. Частицы

КАТЕГОРИИ:






1 страница. Определить кратность исправляемых ошибок помехоустойчивым кодом, минимальное кодовое расстояние которого d0= 5:{




Сек

~20 сек

~15 сек

}

 

Определить кратность исправляемых ошибок помехоустойчивым кодом, минимальное кодовое расстояние которого d0= 5:{

=2.

~0.02*102

~ 4.

~ 3.

~ 7.

~ 8.

~1

~5

}

 

Определить вес кодового вектора, полученного в результате сложения по модулю 2 кодовых векторов 111011 и 100110:{

=4.

~ 22

~ 1.

~ 2.

~ 3.

~ 7

~6

~ 8

}

 

Задан сигнал с максимальной частотой спектра fmax=50кГц = 50000 1/сек. Определить максимальный интервал DT между отсчетами, при котором имеется возможность безошибочно восстановить дискретизируемый сигнал:{

=10-5сек.

= 0.000001 сек

~ 2*10-5сек.

~ 3*10-5сек.

~ 7*10-4сек.

~ 10-4сек.

~ 5*10-4 сек

~ 5*10-3 сек

}

 

Функция х(t) содержит гармоническую составляющую наивысшей частоты Fm = 100 гц. Определить, через какие промежутки следует брать отсчеты и количество отсчетов, если сигнал длится 500 мсек:{

Δt = 0,005сек; n = 100.

Δt = 5*10-2 сек; n = 102.

Δt = 0.5 сек; n = 50

Δt = 0,5сек; n = 100.

Δt = 0,05сек; n = 100.

Δt = 0, 0005сек; n = 200.

Δt = 0,005сек; n = 300

Δt = 0,001сек; n = 200

}

 

Первичный алфавит состоит из четырех знаков с вероятностями p1 = 0,11; p2 = 0,22; p3 = 0,1, р4=0,57. Для передачи по каналу без помех используются равномерный двоичный код. Частота тактового генератора 500 Гц. Какова скорость передачи?{

=406 бит/сек

=4.06*102 бит/сек

~320 бит/сек

~500 бит/сек

~750 бит/сек

~480 бит/сек

~380 бит/сек

~580 бит/сек

}

 

Какую значность имеет кодовая комбинация 00110011?{

=8

=23

~7

~6

~4

~3

~16

~32

}

 

Вес кодовой комбинации 0011001110 равен{

=5

=0.005*103

~6

~10

~8

~9

~16

~32

}

 

Для кода (4,3) определить долю обнаруживаемых ошибок{

=0,5

=5*10-1

~0,46

~0,8

~0,65

~0,25

~0.7

~1

}

 

Соотношение описывает:{

= Дисперсию

~ Квадрат среднеквадратического отклонения

~ Математическое ожидание

~ Автокорреляционную функцию

~ Взаимнокорреляционную функцию

~ Автокорреляционную функцию

~Ортонормированную функцию

~Базисную функцию

}

 

Энтропия означает:{

=степень неопределенности задачи

=количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения

~степень богатства и неожиданности состояний

~вероятность теплового состояния вещества

~способность источника отдавать информацию

~степень неожиданности состояний

~ эпсилон-производительность источника сообщений

~ показатель качества корректирующего кода

}

 

Какие условия Дирихле должны выполняться для любого периодического сигнала s(t){

=В любом конечном интервале функция s(t) должна быть непрерывна или должна иметь конечное число разрывов первого рода

=В пределах одного периода функция s(t) должна иметь конечное число максимумов и минимумов

~Функция s(t) имеет нормальное распределение

~Функция s(t) имеет гамма-распределение

~Функция s(t) является дискретной

~Функция s(t) является постоянной величиной

~Функция s(t) имеет показательное распределение

~Функция s(t) имеет равномерное распределение

}

 

Структура частотного спектра периодического сигнала полностью определяется характеристиками{

=Амплитудной

=Фазовой

~Геометрической

~Алгебраической

~Положительной

~Отрицательной

~Тригонометрической

~Интегральной

}

 

Чем больше энтропия дискретного источника, то{

=Тем сильнее неопределенность

=Тем большую информацию в среднем несет одно сообщение источника

~ Длиннее последовательность сообщений

~ Короче последовательность сообщений

~ Выше скорость передачи сообщений

~ Больше емкость канала

~ Шире спектр сигнала

~ Шире полоса пропускания канала

}

 

Какие причины не позволяют беспредельно повышать скорость передачи информации по реальному каналу связи{

=Конечное число сигналов

=Конечная длительность сигналов

~Сдвиг сигналов во времени

~Изменение масштаба времени

~Смещение спектра сигнала

~Дифференцирование и интегрирование сигналов

~Сложение сигналов

~Произведение сигналов

}

 

Чем больше разброс мгновенных значений сигнала около математического ожидания:{

=тем больше дисперсия сигнала

=тем больше среднеквадратическое отклонение

~тем меньше дисперсия сигнала

~дисперсия находится в заданных пределах

~дисперсия ограничена нижним пределом

~тем меньше среднеквадратическое отклонение

~среднеквадратическое отклонение находится в заданных пределах

~среднеквадратическое отклонение ограничено нижним пределом

}

 

Какой сигнал изменяется во времени случайным образом и не может быть представлен в виде конкретной математической функции {

=нерегулярный сигнал.

=случайный сигнал

~детерминированный сигнал.

~дискретно-непрерывный сигнал.

~гармонический сигнал.

~Ортогональный

~Линейный

~Дискретный

}

 

Какая функция характеризует степень связи между мгновенными значениями случайных сигналов x1 (t) и x2 (t), отстоящих друг от друга на величину t{

=взаимная корреляционная функция

=ВКФ

~автокорреляционная функция.

~функция спектральной плотности.

~функция распределения

~АКФ

~Базисная функция

~Воспроизводящая функция

}

 

Какая функция случайного сигнала х (t) характеризует распределение квадратов относительных амплитуд гармоник сигнала вдоль оси w{

=спектральной плотности.

=Плотности спектра

~Корреляции.

~взаимной корреляции.

~Распределения.

~АКФ

~Базисная функция

~Воспроизводящая функция

}

 

Соотношение Rx (t) = 1/ T ò x(t)x(t+ t) dt описывает:{

=автокорреляционную функцию случайного сигнала х(t).

=АКФ случайного сигнала

~взаимную корреляционную функцию случайного сигнала х(t).

~дисперсию случайного сигнала х(t).

~спектральную плотность случайного сигнала х(t).

~ВКФ случайного сигнала

~Базисную функцию

~Воспроизводящую функцию

}

 

Вероятность предсказания детерминированного сигнала равна:

=1.

=~ е0

~ 0,9.

~ 0,5.

~ 0,3.

~ 0,4

~0,8

~ 2

}

 

Точность воспроизведения сигнала будет большей при шаге дискретизации:{

=1 сек.

0 сек.

~2 сек.

~5 сек.

~10 сек.

~100 сек.

~50 сек.

~25 сек.

}

 

Точность дискретизации сигнала будет наименьшей при шаге дискретизации:{

=сек.

=0.6*102 сек.

~50 сек.

~40 сек.

~6 сек.

~30 сек.

~25 сек.

}

 

Укажите формулу, связывающую начальное значение корреляционной функции Rx (t) стационарного случайного сигнала с его дисперсией{

= Rx (0) = Dx.

~ Rx (0) = σ2х (0)

~ Rx (0) =1 / Dx. x.

~ Rx (0) = 2 Dx.

~ Rx (0) = n Dx.

~ Rx (0) = σх (0)

~Rx (0) ≤ σх (0)

~Rx (0) ≥ σ2х (0)

}

 

При w®¥ функция спектральной плотности случайного сигнала Sx(w) обычно:{

=стремится к нулю.

=→ 0

~стремится к ¥.

~стремится к постоянной величине.

~остается в заданных пределах.

~Неограниченно убывает

~Неограниченно возрастает

~Возрастает в заданном диапазоне

}

 

Какая функция случайного сигнала х (t) характеризует распределение квадратов относительных амплитуд гармоник сигнала вдоль оси w?{

=спектральной плотности.

=Плотности спектра

~Корреляции.

~взаимной корреляции.

~Распределения

~Базисная

~Воспроизводящая

~ВКФ

}

 

Если сигналы статистически не связаны между собой, то при всех значениях t функция Rx1x2 (t) равна:{

=0.

*0

~1.

~¥.

~0,1.

~0.5

~0.4

~0.2

}

 

Какое воздействие описывает функция {

=ступенчатое воздействие;

=воздействие мгновенно возрастает от нуля до некоторого значения и далее остается постоянным;

~гармоническое воздействие;

~непрерывное воздействие;

~импульсное воздействие;

~дискретное воздействие;

~адаптивное воздействие;

~эффективное воздействие

}

 

Какое воздействие мгновенно возрастает от нуля до некоторого значения и далее остается постоянным?{

=ступенчатое воздействие;

=воздействие, описываемое функцией ;

~импульсное воздействие;

~непрерывное воздействие;

~гармоническое воздействие;

~дискретное воздействие;

~адаптивное воздействие;

~эффективное воздействие

}

 

Какое воздействие описывает функция

{

=гармоническое воздействие;

=воздействие, описываемое функцией синусоидальной формы;

~единичное импульсное воздействие;

~непрерывное воздействие;

~импульсное воздействие;

~дискретное воздействие;

~адаптивное воздействие;

~эффективное воздействие

}

 

Соотношение используется как:{

=критерий равномерного воспроизведения;

=критерий наибольшего отклонения;

~критерий среднеквадратического приближения;

~интегральный критерий приближений;

~вероятностный критерий;

~критерий Фишера;

~критерий Пирсона;

~критерий Стьюдента

}

 

В каком коде осуществляются операции кодирования и декодирования над непрерывной последовательностью сигналов{

=сверточном коде;

=рекуррентном коде;

~коде Грея;

~циклическом коде;

~рефлексно-двоичном коде;

~непрерывном коде;

~эквивалентном коде;

~плотноупакованном коде

}

 

Код, позволяющий свести к единице младшего разряда ошибку неоднородности при считывании информации называется:{

=кодом Грея;

=рефлексно-двоичным кодом;

~рефлексно-десятичным кодом;

~двоичным кодом;

~оптимальным кодом;

~непрерывным кодом;

~эквивалентным кодом;

~плотноупакованным кодом

}

 

Устройство непосредственного преобразования физической величины в цифровую форму называется:{

=аналого-цифровой преобразователь;

=АЦП;

~коррелятор;

~аналого-кодовый преобразователь;

~Квантователь;

~Модулятор;

~Кодер;

~Декодер

}

 

Программное обеспечение ИС – это:{

=совокупность программ системы обработки и программных документов, необходимых для эксплуатации этих программ;

=совокупность программ и программных документов для системы обработки данных;

~все программное обеспечение персонального компьютера;

~совокупность программ управляющих техническими средствами ИС;

~системные программы, обеспечивающие работу ИС;

~внемашинные документы;

~организационные, нормативные и распорядительские документы;

~метрологические документы

}

 

Организационное обеспечение ИС включает:{

=сбор, хранение, передачу и обработку информации на основе ИС;

=обработку, передачу, хранение и сбор информации на основе ИС;

~управление аппаратом для сбора и хранения информации;

~управление персоналом ИС;

~получение и передачу информации;

~только работу с документами;

~совокупность программ управляющих техническими средствами ИС;

~метрологические документы

}

 

К техническому обеспечению ИС относятся:{

=компьютеры, средства коммуникации, оргтехника;

=оргтехника, средства коммуникации и компьютеры;

~только компьютеры;

~компьютеры вместе с программным обеспечением;

~накопители информации;

~внешние документы;

~организационные, нормативные и распорядительские документы;

~метрологические документы

}

 

Общее программное обеспечение ИС включает:{

=операционную систему, системы программирования, сервисные программы;

=системы программирования, сервисные программы; операционную систему;

~все программы обработки данных;

~программы позволяющие создать системы обработки баз данных;

~системы управления базами данных;

~первичные документы;

~организационные, нормативные и распорядительские документы;

~метрологические документы

113. Информационные системы можно условно разделить на:

фактографические и документальные;

документальные и фактографические;

системные и прикладные;

банковские и финансовые;

аппаратные и программные;

 

важные и неважные;

экспертные и интеллектуальные;

инженерные и экономические

114. В систему входят:

структура, входы и выходы, закон поведения, цель и ограничения;

цель и ограничения, закон поведения; структура; входы и выходы;

структура, закон поведения, цель и уравнения;

входы и выходы, закон Ома;

структура, входы и выходы, цель и упражнения;

все программные средства;

объект управления и средства управления;

объект управления, входы и выходы

115. Свойства системы:

относительность, делимость и целостность;

целостность, делимость, относительность;

детерминированность, нелогичность, случайность;

целостность, нелогичность;

неделимость и неопределенность;

относительность, нелогичность;

связность, компактность;

открытость и неопределенность

116. Способы обработки данных бывают:

централизованный, децентрализованный;

децентрализованный и централизованный;

пакетный, речевой;

текстовый;

графический, символьный;

сетевой, фактографический;

внешний, первичный;

непрерывный, дискретный

117. Введение численной меры количества информации позволяет:

сравнивать различные сообщения по их содержательности, оценивать скорость передачи информации, определять предельное количество информации, которое может быть передано в данных конкретных условиях;

оценивать скорость передачи информации, определять предельное количество информации, которое может быть передано в данных конкретных условиях, сравнивать различные сообщения по их содержательности;

сравнивать различные сообщения по их содержательности;

оценивать скорость передачи информации в различных системах и сравнивать эти системы по эффективности;

определять предельное количество информации, которое может быть передано в данных конкретных условиях;

качественно оценить информацию;

рассчитывать пропускную способность канала связи;

использовать эффективное кодирование

118. Система управления представляет собой:

совокупность объекта управления и субъекта управления;

совокупность субъекта и объекта управления;

совокупность субъектов управления;

совокупность объектов управления;

комплекс технических средств управления и программного обеспечения;

объект управления и объект исследования;

объект управления, входы и выходы;

субъект управления, входы и выходы

119. В структурном подходе к измерению информации различаются … мера информации:

геометрическая, комбинаторная и аддитивная;

аддитивная, комбинаторная и геометрическая;

геометрическая;

комбинаторная;

аддитивная;

геометрическая,комбинаторная;

мера Шеннона;

мера Хартли

120. Назовите наиболее полное определение «длина числа n»:

количество позиций, необходимых и достаточных для представления чисел заданной величины;

число позиций, достаточных и необходимых для представления чисел заданной величины;

количество позиций для представления чисел заданной величины;

количество позиций, достаточных для представления чисел заданной величины;

количество позиций, необходимых для представления чисел заданной величины;

количество бит, используемых для кодирования числа;

количество байтов, используемых для кодирования числа;

количество двоичных разрядов, используемых для кодирования числа

121. Существуют три основных теории в измерении информации:

Структурная, статистическая, семантическая;

Статистическая, семантическая, структурная;

Структурная, орфографическая;

Статистическая, динамическая;

Статистическая, логическая;

Структурная, синтаксическая, семантическая;

Статистическая, синтаксическая;

Синтаксическая, семантическая

122. Меры могут быть:

статические и динамические;

динамические и статические;

определенные;

статические и логические;

ограниченные;

целевые;

Шеннона;

Хартли

123. Какое из пяти свойств энтропии неправильно определено:

Энтропия всегда отрицательна;

Энтропия всегда меньше 0;

Энтропия равна 0, когда вероятность одного из событий равна 1;

Энтропия имеет наибольшее значение, когда все вероятности равны между собой;

Н(р) непрерывна на интервале 0 ≤ рi ≤ 1;

Н(р) симметрична относительно р;

Энтропия изменяется в интервале от 0 до 1;

Энтропия величина ограниченная

124. В условиях отсутствия помех скорость передачи информации определяется по формуле:

C=n*H;

C= H*n;

C= n*P;

C=n*H +1;

C=n*H/2;

C=n*H *p;

С = n/Н;

С = n/Р

125. Среднее количество информации, содержащейся в принятом ансамбле сообщений В относительно переданного ансамбля сообщений А в условиях помех определяется с использованием:

энтропии объединения и условной энтропии;

условной энтропии и энтропии объединения;

количеством потерянной информации;

энтропии умножения;

~ энтропии объединения и энтропии деления;

~ энтропии объединения и энтропии пересечения;

~эпсилон-энтропии;

~ дифференциальной энтропии

126. Указать формулу полной информационной избыточности:

= D=Ds+Dp-Ds*Dp;

~ D= Dp + Ds -Ds*Dp;

~ D=Ds-Dp- ;

~ D= - Ds*Dp;

~ D= ;

~ D=Ds-Dp+Ds*Dp;

~D=Ds+ Dp+Ds*Dp;

~2D=Ds-Dp+Ds*Dp

127. Указать правильную формулировку основной теоремы Шеннона для каналов без шума:

Сообщения z, составленные из букв некоторого алфавита можно закодировать так, что среднее число на букву: Icp H(z), но Icp H(z);

Сообщения z, составленные из букв некоторого алфавита можно закодировать так, что среднее число на букву: Icp H(z) и Icp H(z);

Сообщения z, составленные из букв некоторого алфавита нельзя закодировать так, что среднее число двоичных символов на букву:

Icp H(z) и Icp H(z);

Сообщения z, составленные из букв некоторого алфавита нельзя закодировать так, что среднее число двоичных символов на букву:

Icp H(z) и Icp H(z);

Сообщения z, составленные из букв некоторого алфавита можно закодировать так, что: (Icp) H(z), но Icp H(z);

Сообщения z, составленные из букв некоторого алфавита можно закодировать так, что среднее число двоичных символов на букву:

Icp 2H(z), и Icp 2H(z);

~Сообщения z, составленные из букв некоторого алфавита можно закодировать так, что: (Icp) H(z), но Icp≤ H(z);

З) Сообщения z, составленные из букв некоторого алфавита можно закодировать так, что среднее число двоичных символов на букву:

Icp 3H(z), и Icp 3H(z)

128. Импульсная модуляция, когда по закону передаваемого сообщения изменяется амплитуда импульсов исходной последовательности называется:

Амплитудно-импульсной

Импульсно-амплитудной

Частотно-импульсной

Фазоимпульсной

времяимпульсной

Широтно-импульсной

Частотной

Фазовой

129. Импульсная модуляция, когда по закону передаваемого сообщения изменяется длительность (ширин= импульсов исходной последовательности называется:

Широтно-импульсной

Импульсно-широтной

Амплитудно-импульсной

Фазоимпульсной

Времяимпульсной

Частотно-импульсной

Частотной

Фазовой

130. Импульсная модуляция, когда по закону передаваемого сообщения изменяется временное положение импульсов исходной последовательности называется:

Фазоимпульсной

Времяимпульсной

Широтно-импульсной

Амплитудно-импульсной

Частотной

Частотно-импульсной

Фазовой

Импульсно-широтной

131. Импульсная модуляция, когда по закону передаваемого сообщения изменяется частота импульсов исходной последовательности называется

Частотно-импульсной

Импульсно-частотной

Фазоимпульсной

Времяимпульсной

Широтно-импульсной

Частотной

Амплитудно-импульсной

Фазовой

132. Импульсная модуляция, когда передаваемый аналоговый первичный сигнал превращается цифровой код – последовательность импульсов (1 – «единиц») и пауз (0 – «нулей»), имеющих одинаковую длительность называется?

Импульсно-кодовой

Кодово-импульсной

Фазоимпульсной

Времяимпульсной

Широтно-импульсной

Амплитудно-импульсной

Частотно-импульсной

Фазовой

133. Случайный процесс, у которого множество состояний составляет континуум, а изменения состояний возможны в любые моменты времени, называют:

Непрерывным случайным процессом

Случайным непрерывным процессом

Непрерывной случайной последовательностью

Дискретным случайным процессом

Стохастическим

Дискретным

Марковским процессом

Эргодическим процессом

134. Случайный процесс с конечным множеством состояний, которые могут изменяться в произвольные моменты времени, называют:

Дискретным случайным процессом

Случайным дискретным процессом

Стохастическим

Непрерывной случайной последовательностью

Непрерывным случайным процессом

Дискретным

Марковским процессом

Эргодическим процессом

 

135. Случайный процесс с конечным множеством состояний составляет континуум, а изменения состояний допускаются лишь в конечном или счетном числе моментом времени, называют:

Непрерывной случайной последовательностью

Случайной непрерывной последовательностью

Случайной последовательностью

Стохастическим процессом

Дискретным

Дискретным случайным процессом

Непрерывной случайной последовательностью

Эргодическим процессом

136. Случайный процесс с конечным множеством состояний, которые могут изменяться только в конечном или счетном числе моментов времени называется:

Дискретной случайной последовательностью

Случайной дискретной последовательностью

Дискретным случайным процессом

Непрерывной случайной последовательностью

Стохастическим процессом

Случайной последовательностью

Финитной последовательностью

Ограниченной последовательностью

137. Сколько существует основных процедур при преобразовании информации:

= 5

~ 5*е0

~ 3

~2

~1

~ 4

~ 6

~ 7

138. Для геометрического отображения чисто дискретных сигналов, получающихся путем дискретизации и квантования по уровню используются:

А) Дискретные линейные векторные пространства

Б) Линейные векторные дискретные пространства

В) Линейные векторные пространства

Г) Векторные пространства

Д) Линейные пространства

Е) Пространства

Ж) Метрические пространства

З) Гильбертовы пространства

139. Под технической скоростью передачи VT, называемой также скоростью манипуляции, понимают:

А) Число элементарных сигналов, передаваемых по каналу в единицу времени

Б) Число элементарных символов, передаваемых по каналу в единицу времени

В) Апостериорную энтропию источника

Г) Элементы сообщения

Д) Практическую ширину спектра

Е) Количество информации, вырабатываемое источником в единицу времени

Ж) Эпсилон- энтропию источника

З) Условную энтропию источника

140. Бод – это:

А) Скорость при которой за одну секунду передается один символ

Б) Скорость передачи 1 символ/сек

В) Элемент сообщения






Не нашли, что искали? Воспользуйтесь поиском:

vikidalka.ru - 2015-2024 год. Все права принадлежат их авторам! Нарушение авторских прав | Нарушение персональных данных