Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
LYeKTsII_INFA.doc
Скачиваний:
29
Добавлен:
14.04.2019
Размер:
5.25 Mб
Скачать

1.2 Определения информации

Термин «информация» происходит от латинского informatio, что означает изложение, разъяснение. В обыденной жизни под этим словом понимают сведения, передаваемые людьми устным, письменным или другим образом. Большинство научных дисциплин использует этот термин, хотя каждая из них вкладывает в него свое содержание.

Первое понятие информации дали журналисты и филологи в 20-30-е годы XX столетия как новости, сообщения, своеобразного газетного жанра, с помощью которого человек получает различного рода сведения, Более строгая трактовка термина «информация» связана с возникновением двух новых дисциплин - математической (статистической) теории информации и кибернетики.

В математической теории информации американского инженера и математика Клода Шеннона (1948), первоначально разрабатывавшейся применительно к случайным процессам и явлениям, для которых характерна неопределенность исхода (да?, нет?), под информацией понимались не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую до их получения неопределенность. Итак, по теории Шеннона, информация - это снятая неопределенность.

Неопределенность существует тогда, когда может произойти одно из нескольких событий, т. е. система может перейти в одно из нескольких состояний, При этом количество информации, получаемой в результате снятия неопределенности, вычисляется по формуле, называемой формулой Шеннона:

,

где I- количество информации; p - вероятность события; m - число возможных состояний системы.

В частном случае для равновероятных исходов, когда p1=p2=...=pi степень неопределенности, снимаемой в результате получения информации, измеряется логарифмом числа состояний системы и называется энтропией: H = log2 m. Для систем с двумя равновероятностными возможностями («да», «нет», или «плюс», «минус», или «0», «1») H = log22 = 1. Эта величина принята за единицу измерения и названа битом.

Как правило, состояние системы характеризуется не двумя, а большим числом возможностей выбора, Например, русская письменность использует 32 буквы алфавита; выбор идет из 32 двух возможностей, т.е. m = 32, Если допустить, что появление каждой буквы равновероятно, то каждая из них несет

Y = log232 = log 25 = 5 бит информации.

Равные по объему сообщения могут содержать разное количество информации. Чем больше разнообразие знаков, из которых состоит сообщение, тем больше в нем информации.

Таким образом, теория Шеннона дала возможность количественного определения информации в сообщении. Однако она полностью игнорирует содержание передаваемой информации, оставляет в стороне смысл сообщения. Было сделано несколько попыток найти меру содержательности информации для ее получателя. Так, советский математик Ю.Шрейдер предложил оценивать информацию по увеличению объема знаний у человека под воздействием информационного сообщения. Академик А. А. Харкевич предложил измерять содержательность информации по увеличению вероятности достижения цели после получения информации человеком или машиной. Однако и этот подход требует дальнейшей разработки.

В настоящее время в различных источниках, даются различные определения информации, зачастую противоречивые, поэтому, для частичного преодоления этих трудностей, воспользуемся определением, предлагаемым В. Г. Афанасьев, который вводит близкое информации понятие информационных данных: «Данные − это всякие сведения, сообщения, знания. Они могу храниться, перерабатываться, передаваться, но характер информации они приобретают лишь тогда, когда получают содержание и форму, пригодную для управления, и используются в управлении, причем, речь идет как об управлении человека самим собой, так и управлением технико-человеческими и социальными системами различных уровней». Собственно говоря, эта точка зрения прочно утвердилась в концепциях программирования и автоматической обработки информации на ЭВМ, в экономической семиотике, где «данные» и «информация» рассматриваются как близкие, взаимосвязанные, но различные понятия».

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]