Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Курсовая ТЭС вар8 Клименко АЭС А-93 2011.docx
Скачиваний:
114
Добавлен:
11.04.2015
Размер:
576.52 Кб
Скачать

1.3.17 Пропускная способность разработанной системы связи.

Пропускной способностью системы связи называется максимально возможная способность передачи информации.

Вычислим пропускную способность непрерывного канала связи. По формуле Шеннона для известной полосы пропускания fпр=48*103 Гц, а также отношения сигнал/шум по мощности h2=22,7.

Где Pс –мощность сигнала, Рш – мощность шума.

Рс=Ес / Т=(А*А*Т)/(2*Т)=А*А/ 2.

Рш равна дисперсии шума.

fпр.ДОФМ =2/Т.

Когда принимается сообщение о каком-либо событии, то наши знания о нем изменяются. Мы получаем при этом некоторую информацию об этом событии. Сообщение о хорошо известном нам событии, очевидно, никакой информации не несет. Напротив сообщение о малоизвестном событии содержит много информации. Например, сообщение бюро погоды от 20 июня о том, что в Одессе “завтра выпадет снег” несет больше информации, чем сообщение “завтра ожидается ясная погода”. Первое сообщение является неожиданным, оно несет сведения о редакции. Второе сообщение является весьма вероятным, оно содержит мало нового и поэтому несет мало информации. Таким образом, количество информации в сообщении о некотором событии существенно зависит от вероятности этого события. Для определения количества информации, в принципе, можно использовать любое монотонно убывающую функцию вероятности F[P(S)], где P(S)- вероятность сообщения S. Что касается энтропии источника независимых сообщений, то во многих случаях, когда требуется согласовать канал с источником сообщений, возникает потребность в характеристиках, которые бы позволяли оценивать информационные свойства источника сообщений в целом. Одной из важных характеристик такого рода является среднее количество информации, приходящейся на одно сообщение. Так как вероятности сообщений неодинаковы, то они несут различное количество информации. Менее вероятные сообщения несут большое количество информации и на оборот. Среднее количество информации, приходящейся на одно сообщение источника, определяется как математическое ожидание.

, (44)

Величина называется энтропией. В теории информации энтропия также характеризует неопределенность ситуации до передачи сообщения, поскольку за ранее неизвестно, какое из сообщений ансамбля источника будет передано. Чем больше энтропия, тем сильнее неопределенность и тем большую информацию в среднем несет одно сообщений источника. В нашем случае, вычислим энтропию источника сообщений, который характеризуется ансамблем, состоящим из двух сообщений S1 и S2 с вероятностями

Р(S1)=0,72 и P(S2)=1-P(S1)=1-0,72=0,28

На основании этого энтропия такого источника будет равно:

Количество информации создаваемое источником сообщений в среднем за единицу времени, называется производительностью источника. Эту величину удобно выразить через энтропию источника и:

Из расчетов видно, что производительность источника меньше пропускной способности канала связи. Это говорит о том, что не будут возникать потери, и ошибки в канале связи, возникающих из-за пропускной способности канала связи.

Найдем эффективную пропускную способность непрерывного канала связи

Так как пропускная способность канала связи оказалась больше “производительности” источника, то возможна передача информации по данному каналу.

Вычислим пропускную способность дискретного канала связи с вероятностью ошибки вычисленную в разделе “Вероятность принятия ошибки на выходе

приемника.” Т.е. по формуле

,

Оценим эффективность использования пропускной способности канала связи при передачи дискретными сообщениями.

, тогда эффективность использования пропускной способности канала связи при передачи дискретными сообщениями будет иметь следующий вид.