Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Теоретические основы информатики_студентам.doc
Скачиваний:
19
Добавлен:
14.02.2015
Размер:
1.34 Mб
Скачать

Раздел 1.Информация

1.1. Основные понятия и подходы

Термин ИНФОРМАЦИЯ возник от латинского слова INFORMATIO – РАЗЪЯСНЕНИЕ, ИЗЛОЖЕНИЕ. На сегодняшний день существует большое количество различных определений этого понятия. Связано это со, специфичностью и многообразием подходов к толкованию сущности этого понятия.

С философской точки зрения информация это отражение реального мира с помощью сведений (сообщений). Сообщение – это форма представления информации в виде речи, текста, изображения, цифровых данных, графиков, таблиц и т.п.

С юридической точки зрения – это сведения (сообщения) о лицах, предметах, фактах, явлениях и процессах независимо от формы их представления. (Федеральный закон статья вторая).

В теории информации различают три основных подхода к понятию информация – структурный, статистический и семантический.

Структурный подход рассматривает информацию как свойство материи, т.е. любое сообщение, будь то текст на бумаге или шум моря, несет в себе информацию о природе материи. Носителем информации является сообщение, состоящее из символов.

Согласно этой концепции информация всегда передается в материально-энергетической форме. Она не может существовать вне материи, а значит, она существовала и будет существовать вечно, ее можно накапливать, хранить, перерабатывать. В структурном подходе к информации различают три способа ее измерения: геометрический, комбинаторный и аддитивный.

Геометрической мерой информации может являться, длина, площадь, объем (рис. 1.). Сообщение формируется координатами текущего состояния системы.

Рис. 1.

Комбинаторная мера информации использует количество возможных перестановок символов в сообщении. Количество информации равно количеству возможных сочетаний, перестановок и размещений элементов в сообщении.

Аддитивная мера (мера Хартли) – использует для подсчета количества информации двоичные единицы (бит, от англ. bitbinary digit). Этот принцип измерения информации основан на понятие глубины и длинны числа.

Глубина числа – это количество различных элементов, которые могут быть использованы для записи информации (основание системы счисления).

Длина числа – количество символов использованных для записи числа (разрядность числа).

При заданном иможно посчитать, сколько всего чисел можно записать, используя данный алфавит и количество символов.

.

Для подсчета количества информации используют двоичный логарифм N.

–формула Хартли.

Согласно этой формуле один бит информации соответствует выбору одного из двух возможных состояний (N=2, т.е. q=2, n=1). В вычислительной технике в качестве таких состояний выступает наличие или отсутствие заряда в транзисторе.

Статистический подход является количественно-информационным и представляет информацию как меру неопределенности (энтропию) события, т.е. информация – это снятая неопределенность.

Данный метод называется статистическим, поскольку рассматривает события как возможные исходы некоторого опыта, причем все возможные исходы составляют полную группу событий. При этом каждый опыт несет в себе неопределенность (энтропию), снятием которой получается информация. Эта теория была предложена американским ученым Клодом Шенноном в 1948 г. Им же была предложена формула для подсчета среднего количества информации, получаемого одним опытом.

–формула Шеннона,

где – количество возможных исходов опыта,

– количество разнотипных исходов (результаты которые существенно разнятся),

– количество повторений однотипных исходов,

– вероятность-го исхода.

Можно получить и другую форму записи этой формулы, если посчитать, что :

В случае равенства вероятностей событий формула Шеннона преобразуется в формулу Хартли.

Данный подход к измерению количества информации получил широкое применение в вычислительной технике. Именно на основе статистического представления информации кодируются все сообщения в ЭВМ.

Семантический1 подход рассматривает информацию как «полезное» знание, которое можно применить в процессе управления, ориентировки и активного действия. «Полезность» знания зависит от его логичности, целесообразности, содержательности и существенности.

Каждый из способов представления информации рассматривает разные ее аспекты и дополняет друг друга. На основе трех представлений можно сделать обобщенное определение информации: "Информация – сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний".

Помимо термина «информация» в информатике встречаются и другие понятия обозначающие знания.

Данные – это информация, представленная в форме, пригодной для ее передачи и обработки с помощью компьютера.

Команда – это элементарная инструкция, предписывающая компьютеру выполнить ту или иную операцию.

Сообщениесовокупность данных, представляющая смысл для пользователя как целое. С помощью сообщения передается информация.

Сигнал – (от лат. signum – знак) – результат взаимодействия элементов объективного мира; регистрируется качественным или количественным изменением этих элементов. С помощью сигналов можно передавать данные