Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Будылдина2 / ПДС_ЭКЗАМЕН.DOC
Скачиваний:
357
Добавлен:
11.04.2015
Размер:
2.55 Mб
Скачать

1. Определение понятий «информация», «дискретное сообщение». Единица измерения количества информации. Количество информации, содержащейся в дискретном сообщении ( дс ).

Бит – единичный элемент кодовой комбинации с основанием кода, равным двум. Является единицей измерения количества информации I(a). (1 бит – это количество информации, которое переносит один символ источника дискретных сообщений в том случае, когда алфавит источника включает два независимых символа).

Бит/с – единица скорости передачи информации по каналу R, представленной в виде последовательности двоичных символов. Обычно под этим подразумевается, что все передаваемые биты имеют одинаковую длительность и период повторения. Максимально возможное значение скорости передачи по каналу при заданных условиях называется пропускной способностью канала C.

Бод – единица измерения числа переданных двоичных информационных и служебных символов в единицу времени. Так, если по некоторому асинхронному каналу в среднем передаётся один асинхронный символ в секунду в формате 8N1 (8 информационных двоичных символов, один стартовый, один стоповый, символ контроля паритета отсутствует, - всего 10 двоичных символов), то можно утверждать, что скорость передачи информации в этом канале равна в среднем 8 бит/с или 10 Бод.

Информация –это совокупность сведений об объекте или явлении, которые увеличивают знания потребителя об этом объекте или явлении.

Ценность информации зависит от того, насколько она нова, важна и сложна. Чем меньше вероятность получения конкретного сообщения, тем больше информации содержится в данном сообщении, поэтому вероятность, это мера неожиданности в получении информации или ее количественная характеристика, т.е. количественная мера информации не связана с конкретным сообщением, а отображает лишь степень неожиданности принимаемого сообщения в данных конкретных условиях.

Вероятные события содержат мало новой информации. Отсюда следует:

- количество информации в нескольких независимых сообщениях равно сумме количества информации в каждом из них.

- количество информации о достоверном сообщении, выданном источником сообщения (заранее ожидаемом ) с вероятностьюдолжно быть равно нулю, т.к. оно не увеличивает наших знаний и заранее известно получателю.

Количество информации, приходящейся на один символ, определяется через логарифмическую меру:

Где-вероятность появления символа.

Основные свойства количества информации:

  1. Аддитивность – количество информации, содержащейся в нескольких независимых сообщениях, равно сумме количества информации в каждом из них.

  2. Количество информации величина не отрицательная.

Количество информации приходящейся на один единичный элемент, если появление единичных элементов неравномерно:

[бит/ед. эл]

Если кодовая комбинация состоит из n разрядов, то используется свойство аддитивности:

[ бит/код. комб.]

Дискретный ( цифровой ) сигнал – это сигнал, имеющий конечное число значений (0 или 1).

Элемент цифрового сигнала – это его часть, отличающаяся от остальных частей значением одного из своих представляющих параметров ( амплитуда).

Значащая позиция – это расстояние между значащими моментами .

Значащий момент ( ЗМ ) – это точка изменения значащей позиции.

Интервал времени между двумя соседними ЗМ сигнала называется значащим интервалом ( ЗИ ). Минимальный интервал времени, которому равны ЗИ времени сигнала, называется единичным интервалом ( например а-б и т.д.).

Элемент сигнала, имеющий длительность, равную единичному интервалу времени, называется единичным элементом.

Дискретное сообщение – информация, представленная в дискретном виде.

Энтропия Н (А) – это среднее количество информации, приходящееся на одно сообщение или на его элементы. Это мера неопределенности в поведении источника сообщения.

Энтропия равна «0», если с вероятностью «1» источником выдается всегда одно и тоже сообщение. В этом случае неопределенность в поведении источника отсутствует. Энтропия максимальна если символы источника появляются независимо и с одинаковой вероятностью.

; Бит/с.

Производительность – это среднее количество информации, выдаваемой источником в единицу времени.

где: Т – среднее время, отводимое на передачу одного символа.

Пропускная способность – это количество слов, передаваемых или принимаемых за 1 час. Или это максимально возможное значение скорости передачи информации по каналу при заданных условиях.

; бит/сек.

РОШ–вероятность возникновения ошибки.

Если в канале нет ошибок, то пропускная способность определяется исходя из скорости модуляции.

Достоверность – определяет степень соответствия принятых знаков по отношению к переданным.

отсюда определяется коэффициент ошибки:

Вероятность ошибки есть величина обратная достоверности.

Надежность – это способность аппаратуры выполнять свои функции в течении определенного промежутка времени. Она оценивается следующими показателями:

- Время наработки на отказ(Tn) –интервал времени между двумя соседними отказами.

- Время восстановления ( Тв ) –время необходимое для устранения неисправности.

- Коэффициент готовности( Кг ).

Соседние файлы в папке Будылдина2