Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Ответы по ТОИ 1.docx
Скачиваний:
92
Добавлен:
25.04.2019
Размер:
216.82 Кб
Скачать
  1. Сигналы как средство передачи информации. Аналого-цифровые и цифрово-аналоговые преобразования сигналов.

Компьютер может воспринимать информацию только в форме электрических сигналов, поэтому для его работы требуется преобразовывать информацию в необходимый формат.

большинство устройств, взаимодействующих с компьютером, имеют аналоговый вход/выход, а компьютер умеет обрабатывать исключительно цифровые сигналы.

Аналого-цифровое преобразование:

Для того, что бы компьютер мог выполнить обработку сигнала необходимо выполнить преобразование сигнала из аналоговой формы в цифровую.

После обработки выполняется обратное преобразование, поскольку большинство бытовых устройств управляются аналоговыми сигналами.

Для преобразования любого аналогового сигнала (звука, изображения) в цифровую форму необходимо выполнить три основные операции: дискретизацию, квантование и кодирование.

Цифро-аналоговое преобразование:

После цифровой фильтрации передискретизированные данные вводятся в цифро-аналоговый преобразователь, или ЦАП. Он преобразует свои входные данные в аналоговый выходной сигнал. Наиболее распространенным типом ЦАП'а считается преобразователь с резисторной матрицей типа R/2R. Внутри этих ЦАП'ов имеется резисторная схема лестничного типа. Каждая "ступенька" соответствует одному разряду двоичного кода.

  1. Энтропия и информация. Определение количества информации.

Информацио́нная энтропи́я — мера неопределённости или непредсказуемости информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения, выраженная в битах. Так же энтропию можно рассматривать как меру равномерности распределения случайной величины.

Например, в последовательности букв, составляющих какое-либо предложение на русском языке, разные буквы появляются с разной частотой, поэтому неопределённость появления для некоторых букв меньше, чем для других. Если же учесть, что некоторые сочетания букв (в этом случае говорят об энтропии n-ого порядка, см. ниже) встречаются очень редко, то неопределённость уменьшается еще сильнее.

Количество информации I и энтропия H характеризуют одну и ту же ситуацию, но с качественно противоположенных сторон. I – это количество информации, которое требуется для снятия неопределенности H. По определению Леона Бриллюэна информация есть отрицательная энтропия (негэнтропия). Когда неопределенность снята полностью, количество полученной информации I равно изначально существовавшей неопределенности H.

Первая концепция (концепция К. Шеннона), отражая количественно-информационный подход, определяет информацию как меру неопределенности (энтропию) события. Количество информации в том или ином случае зависит от вероятности его получения: чем более вероятным является сообщение, тем меньше информации содержится в нем. При таком понимании информация - это снятая неопределенность, или результат выбора из набора возможных альтернатив.

Для расчета энтропии Шеннон предложил уравнение

                          H = ∑Pi log2 1/Pi = -∑Pi log2  Pi,

где Н – энтропия Шеннона, Pi  - вероятность некоторого события.