Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
шпоры ИСТИ.docx
Скачиваний:
41
Добавлен:
18.03.2015
Размер:
4.4 Mб
Скачать

9.Модуляция гармонических колебаний

Колебаниями называются движения или процессы, которые характеризуются определенной повторяемостью во времени.

Гармоническими колебаниями называются такие колебания, при которых колеблющаяся величина меняется от времени по закону синуса или косинуса.

Уравнение гармонических колебаний имеет вид:

,

где A - амплитуда колебаний (величина наибольшего отклонения системы от положения равновесия); - круговая (циклическая) частота. Периодически изменяющийся аргумент косинуса- называется фазой колебаний. Фаза колебаний определяет смещение колеблющейся величины от положения равновесия в данный момент времени t. Постоянная φ представляет собой значение фазы в момент времени t = 0 и называется начальной фазой колебания. Значение начальной фазы определяется выбором начала отсчета. Величина x может принимать значения, лежащие в пределах от -A до +A.

Промежуток времени T, через который повторяются определенные состояния колебательной системы, называется периодом колебаний. Косинус - периодическая функция с периодом 2π, поэтому за промежуток времени T, через который фаза колебаний получит приращение равное 2π, состояние системы, совершающей гармонические колебания, будет повторяться. Этот промежуток времени T называется периодом гармонических колебаний.

Период гармонических колебаний равен: T = 2π/ .

Число колебаний в единицу времени называется частотой колебаний ν.

Частота гармонических колебаний равна: ν = 1/T. Единица измерения частоты герц (Гц) - одно колебание в секунду.

Круговая частота = 2π/T = 2πν дает число колебаний за 2π секунд.

Графически гармонические колебания можно изображать в виде зависимости x от t.

При сложении существенно отличающихся по частоте гармонических колебаний говорят о модуляции. В радиосвязи модуляция используется для передачи звукового сигнала. Для этого в передатчике на высокочастотный сигнал накладывается низкочастотный звуковой сигнал. Принимаемая в приемнике высокочастотная составляющая фильтруется, а низкочастотный сигнал подается на динамик для воспроизведения звука.

8.Меры информации: структурные.

Структурные меры информации.

При использовании их пользуются количеством содержащихся информационных элементов в информационном дискретном комплексе, связями м-ду ними или комбинациями из них. Под информационным элементом понимают неделимые части – кванты информации, а так же элементы алфавитов в числовых системах. Среди структурных схем различают: геометрическую, комбинаторную, аддитивную (мера Хартли) меры информации.

Геометрическая структурная мера информации.

Количество информации измеряется путем измерения длины, площади или объема геометрической модели в качестве дискретных единиц – квантов. Можно определить потенциальное, т.е. максимально возможное количество информации в заданных структурных габаритах, которые называются информационной емкостью исследуемой части информационной системы. Она может быть представлена числом, показывающим количество квантов в массиве информации. Если дискретные отсчеты осуществляются по осям X, N, T через интервалы ΔX, ΔN, ΔT, то непрерывные координаты распадаются на элементы – кванты, количество которых будет: mx=x/Δx ; mn=N/ΔN; mT= T/ΔT

Количество информации: M=mx mN mT

Комбинаторная мера.

Количество информации в комбинаторной мере вычисляется как количество комбинаций элементов. Комбинирование возможно в комплексе с неоднородными элементами, различными связями. Образование комбинаций – одна из форм кодирования информации. В комбинаторике рассматриваются различные виды соединения элементов.

Аддитивная мера Хартли.

Глубина h числа – количество элементов, знаков, содержащихся в принятом алфавите. Глубина числа соответствует основанию системы счисления и кодирования.

В каждый данный момент реализуется только один знак из h возможных.

Длина l числа – количество повторений алфавита, необходимых и достаточных для представления чисел нужной величины. Длина числа соответствует разрядности системы счисления и кодирования.

При глубине h и длине l количество чисел выразится: Q=h l , т.е. емкость зависит экспоненциально от длины числа l.

Пример:

h=1 унарная система счисления. h=2двоичная система h=3…10

В следствии показательного закона зависимости Q от l, число Q не является удобной мерой для оценки информационной емкости, поэтому Хартли ввел аддитивную двоичную логарифмическую меру, позволяющую вычислять количество информации в двоичных единицах – битах. Для этого берется не само число Q, а его двоичный логарифм.

I = log2Q = log2h l = l×log2h,

где I – количество информации по Хартли.

Если длина числа l = 1 и принята двоичная система счисления, то

I=log221=1 (бит)

Это единица информации в принятой системе оценки. Она соответствует одному элементарному событию, кот. Может произойти (1) или нет (0). Аддитивная мера удобна тем, что она обеспечивает возможность сложения, а также пропорциональность количества информации длине числа l.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]