- •Введение
- •1. Основные понятия. Количественная мера информации
- •Понятие информации
- •1.2. Количественная мера информации для равновозможных событий
- •1.3. Количественная мера информации для разновозможных событий (сообщений). Энтропия источника дискретных (цифровых) сообщений
- •1.4. Свойства энтропии источника дискретных сообщений
- •1.5. Энтропия источника совместных сообщений
- •1.6. Определение количества информации источника дискретных сообщений при неполной достоверности результатов опыта
- •1.7. Некоторые свойства количественной меры информации источника дискретных сообщений при неполной достоверности результатов опыта
- •1.9. Избыточность источника сообщений
- •1.10 Энтропия источника при наличии коррелятивных связей между двумя соседними символами
- •Контрольные вопросы
- •2. Информационные характеристики непрерывных (аналоговых) источников информации
- •2.1. Понятие о непрерывных (аналоговых) источниках информации
- •2.2. Энтропия непрерывного источника информации. Количество информации в одном замере непрерывной случайной величины
- •2.3. Примеры вычисления энтропии непрерывных источников информации
- •2.4. Количество информации, содержащееся в одном замере непрерывной случайной величины при неполной достоверности результатов измерения
- •Контрольные вопросы
- •3. Понятие о пропускной способности каналов и скорости передачи информации
- •3.1. Пропускная способность дискретного (цифрового) канала
- •3.2. Пропускная способность непрерывных (аналоговых) каналов
- •3.3. Определение пропускной способности непрерывного канала
- •3.4 Основные теоремы Шеннона
- •3.5 Энтропия источника при наличии коррелятивных связей между двумя соседними символами
- •4 Помехоустойчивое кодирование
- •Коды с обнаружением и исправлением ошибок. Код хемминга
- •Исправляющая способность кода хемминга
- •Контрольные вопросы
- •Библиографический список
- •Лабораторная работа №4 код хемминга
- •1.1. Понятие информации ...................................................................... 1
- •Контрольная работа № 1
- •Контрольная работа № 2
Лк1
Введение
Возникновение теории информации обычно связывают с появлением фундаментальной работы американского ученого Клода Шеннона «Математическая теория связи» (1948.г.), ставшей библиографической редкостью. Однако в теорию информации вошли результаты, полученные и другими учеными, например Ральфом Хартли, академиками А.Н. Колмогоровым, В.А. Котельниковым и др. Прикладные результаты приводятся в пособии для пояснения основ теории.
В настоящее время получили широкое распространение информационные системы. Под информационной системой будем понимать такую систему, которая реализует и поддерживает информационный процесс. Под информационным процессом будем понимать такой процесс, в котором присутствует хотя бы один из элементов: передача информации, ее прием, хранение, обработка, выдача пользователю [1].
Понятие «информация» является основополагающим для информационных систем. Несмотря на все различия в трактовке понятия «информация», бесспорно то, что проявляется информация всегда в материально-энергетической форме в виде сигналов, являющихся материальными носителями информации.
При оценке систем передачи информации необходимо иметь количественные меры информации, не зависящие от природы источников информации и основанные на статистических характеристиках таких источников. В данном курсе мы будем рассматривать возможные варианты количественной меры информации. Рассмотрим конкретные примеры вычисления количества информации для источников информации применительно к информационным системам.
1. Основные понятия. Количественная мера информации
-
Понятие информации
Каждому из нас знаком и понятен обмен информацией друг с другом, доступны информационные выпуски по радио и телевидению, мы выуживаем необходимую информацию из интернета, из информационных табло различного назначения и т.д. Несмотря на то, что с понятием информации мы повсеместно сталкиваемся, строгого и общепринятого определения до сих пор не существует [1, 2]. Поэтому вместо определения обычно используют понятие об информации.
С учетом интуитивной точки зрения понятие «информация» может быть истолковано как некоторая совокупность сведений, определяющих меру наших знаний о тех или иных событиях, явлениях или фактах. Такое определение, характерное для естественных наук, во многих случаях может быть отвергнуто в социальных науках. Более того, в современных информационных системах, а именно на них ориентирована дисциплина «Прикладная теория информации», информация может быть получена и обработана без участия человека, и ни о каком знании или незнании здесь речь идти не может. Легко убедиться, что для решения инженерных задач необходимо найти способ измерения информации, а для этого требуется ввести количественную меру информации.
Введение количественной меры информации является весьма сложной задачей. Действительно, информация может быть чрезвычайно разнообразной. Мы можем получить информацию о погоде, о сроках защиты курсовых проектов, узнать о новом открытии или изобретении. Различная информация будет вызывать у нас различные эмоции, и будет представлять различную ценность. Из двух книг одинакового объема можно извлечь совершенно различную информацию. Очевидно, что количественная мера информации не должна противоречить нашим интуитивным представлениям, должна охватывать то общее, что присуще всему многообразию различной информации, и, главное, эта мера должна быть полезной для информационных систем.
Кратко характеризуя содержание прикладной теории информации, можно отметить, что в ней рассматриваются:
-
общая количественная мера информации, не зависящая от природы объектов (источников информации) и основанная на статистических характеристиках таких источников;
-
общие законы передачи, обработки и хранения информации. Эти законы имеют характер известных законов сохранения энергии и устанавливают ряд важных предельных соотношений, как то: максимальную скорость передачи информации, наибольшую эффективность кодирования сообщений и др.;
-
общие зависимости, определяющие влияние тех или иных факторов на преобразование, скорость передачи, потерю и возможность хранения информации.
В то же время необходимо иметь в виду то обстоятельство, что современная теория информации, принимающая в свою основу статистические характеристики источников информации, не учитывает семантики (ценности) сообщения, что сужает области ее применения.