Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ФИПС лекции.doc
Скачиваний:
225
Добавлен:
10.06.2015
Размер:
12.01 Mб
Скачать

Основные типы окон системы сотовой связи gsm

Кодовое разделение каналов системы связи стандарта IS-95

Прямой канал (БС– МС)

Обратный канал (МС– БС)

Сигналы обратного канала трафика системы связи стандарта IS-95

Управление доступом к каналу связи

В системах с предоставлением канала по требованию возникает конфликтная ситуация при одновременном обращении нескольких абонентов к каналу связи. Сигналы, поступающие от разных источников, искажаются вследствие взаимного наложения.

Оценка эффективности системы АЛОХА (доступ не контролируется)

Предполагается, что сообщения передаются пакетами

Вероятность появления k пакетов за интервал времени τ

λ– средняя частота поступления пакетов.

Пакет будет успешно передан, если на периоде уязвимости 2 τ не будет других обращений к каналу. Вероятность успешной передачи,

где

G = λτ – среднее число пакетов, поступающих за интервал времени τ,

S – среднее число успешных передач за τ.

maxS = 1/(2e) ≈ 0,187 при т.е. приG = 0,5.

Пропускная способность систем с управляемым доступом

Управление доступом в системе IS-95

Передачу начинают: в синхронной системае сразу после синхросигнала, в синхронной с контролем несущей–при свободном эфире, в ненастойчивой – через случайное время.

Двоичное кодирование как наиболее экономное

Сообщение – это последовательность длиной в N символов, выбираемых из алфавита в m символов.

Количество разных сообщений Q = mN (lnQ = N lnm).

Аппаратурные и временные затраты «А» пропорциональны объему алфавита m и числу символов в последовательности:

A = mN = m lnQ/lnm.

Минимум затрат, при Q = const, достигается при условии

т.е. при m = e.

Ближайшие целые значения m = 2 и m = 3.

Разные способы двоичного кодирования требуют разного количества бит для представления сообщения. Например:

двоично-десятичный код: 99 = 10011001 (8 бит),

двоичный код: 99 = 26 + 25 + 21 + 20 = 1100011 (7 бит)

Понятие количества информации

Характеристика источника информации

X1, x2,…, xm – набор знаков (алфавит х объема m),

pi – вероятности появления знаков (i =1,..., m).

Количество информации, приходящейся в среднем на один знак алфавита источника:

.

Единицей информации считается «бит» – энтропия источника с двумя равновероятными знаками x1, x2 :

(бит).

При равных вероятностях знаков энтропия источника максимальна

Если 32 буквы русского алфавита считать равновероятными, Н = log232= 5.

Если учесть частоту появления букв в тексте, Н » 4,42.

Если учесть корреляцию соседних букв, Н » 3,53.

Если учесть дальние связи букв между словами, Н » 1,5.

Производительность источника, выдающего знаки со скоростью Vи= 1/τи (τидлительность одного знака) – это количество информации, выдаваемое в единицу времени: