Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ИНФОР-I_РГУ-нефти7-10.doc
Скачиваний:
52
Добавлен:
24.03.2015
Размер:
966.14 Кб
Скачать

Восприятие, сбор, передача обработка и накопление информации

Восприятие информации — процесс преобразования сведений, поступающих в техническую систему или жи­вой организм из внешнего мира, в форму, пригодную для дальнейшего использования. Благодаря восприятию ин­формации обеспечивается связь системы с внешней сре­дой (в качестве которой могут выступать человек, наблю­даемый объект, явление или процесс и т.д.). Восприятие информации необходимо для любой информационной сис­темы.

Современные информационные системы, создаваемые, как правило, на базе ЭВМ, в качестве своей составной части имеют более или менее развитую систему восприя­тия. Система восприятия информации представляет до­вольно сложный комплекс программных и технических средств. Для развитых систем восприятия можно выде­лить несколько этапов переработки поступающей инфор­мации: предварительная обработка для приведения вход­ных данных к стандартному для данной системы виду, выделение в поступающей информации семантически и прагматически значимых информационных единиц, рас­познавание объектов и ситуаций, коррекция внутренней модели мира. В зависимости от анализаторов, входящих в комплекс технических средств системы восприятия, организуется восприятие зрительной, акустической и дру­гих видов информации. Кроме того, различают статиче­ское и динамическое восприятие.

Сбор информации — это процесс получения информа­ции из внешнего мира и приведение ее к стандарту для данной информационной системы. Обмен информацией между воспринимающей ее системой и окружающей сре­дой осуществляется посредством сигналов. Сигнал мож­но определить как средство перенесения информации пространстве и времени. В качестве носителя сигнал: могут выступать звук, свет, электрический ток, магнит­ное поле и т.п. Сбор информации, как правило, сопровождается ее регистрацией, т.е. фиксацией информации на материальном носителе (документе или машинном носителе).

Передача информации осуществляется различными способами: с помощью курьера, пересылка по почте, до­ставка транспортными средствами, дистанционная пере­дача по каналам связи. Дистанционная передача по ка­налам связи сокращает время передачи данных. Для ее осуществления необходимы специальные технические средства. Некоторые технические средства сбора и регис­трации, собирая автоматически информацию с датчиков, установленных на рабочих местах, передают ее в ЭВМ.

Дистанционно может передаваться как первичная ин­формация с мест ее возникновения, так и результатная в обратном направлении. В этом случае результатная ин­формация отражается на различных устройствах: дис­плеях, табло, печатающих устройствах. Поступление ин­формации по каналам связи в центр обработки в основ­ном осуществляется двумя способами: на машинном но­сителе и непосредственно в ЭВМ при помощи специаль­ных программных и аппаратных средств.

Общая схема передачи информации:

В современных развитых информационных системах машинная обработка информации предполагает после­довательно-параллельное во времени решение вычисли­тельных задач. Это возможно при наличии определенной организации вычислительного процесса. Вычислительная задача по мере необходимости обращается с запросами в вычислительную систему. Организация процесса предпо­лагает определение последовательности решения задач и реализацию вычислений. Последовательность решения задается, исходя из их информационной взаимосвязи, когда результаты решения одной задачи используются как исходные данные для решения другой.

Технология электронной обработки информации — человеко-машинный процесс исполнения взаимосвязан­ных операций, протекающих в установленной последова­тельности с целью преобразования исходной (первичной) информации в результатную. Операция представляет со­бой комплекс совершаемых технологических действий, в результате которых информация преобразуется. Техно­логические операции разнообразны по сложности, назна­чению, технике реализации, выполняются на различном оборудовании многими исполнителями.

Хранение и накопление информации вызвано много­кратным ее использованием, применением постоянной информации, необходимостью комплектации первичных данных до их обработки.

Хранение информации осуществляется на машинных носителях в виде информационных массивов, где данные располагаются по установленному в процессе проектиро­вания группировочному признаку.

Кодирование информации

Сцелью засекречивания информации применяется ее кодирование. С незапамятных времен появились коды в виде криптограмм (по-гречески — тайнопись).

Самый первый код связан с именем изобретателя теле­графного аппарата Сэмюэля Морзе и известен как азбука Морзе. Каждой букве или цифре в азбуке Морзе соответ­ствует своя последовательность из кратковременных (на­зываемых точками) и длительных (тире) сигналов, раз­деляемых паузами.

Способы кодирования информации следующие: сим­вольный, лингвистический, табличный, графический. Любой способ кодирования характеризуется наличием основы (алфавит, тезаурус, спектр цветности, система координат, основание системы счисления и т.п.) и пра­вил конструирования информационных образов на этой основе.

Часто информация кодируется числовыми кодами в той или иной системе счисления, особенно это актуально при представлении информации в компьютере Естественно, что одно и тоже количество разрядов в разных системах счисления может передать разное число состояний отображенного объекта, что можно представить в виде соотношения

N = mn

где N – число всевозможных отображаемых состояний ;

m – основание системы счисления ( разнообразие символов применяемых в алфавите);

n – число разрядов (символов) в сообщении

Пример. По каналу связи передается n – разрядное сообщение, использующее m различных символов. Так как количество всевозможных кодовых комбинаций будет N = mn, то при равновероятности появления любой из них количество информации, приобретенной абонентом в результате получения сообщения, будет I = log N = n log m формула Хартли. Если в качестве основания логарифма принять m, то I = n. В данном случае количество информации ( при условии полного априорного незнания абонентом содержания сообщения ) будет равно объему данных I = Vд , полученных по каналу связи.

Для неравновероятных состояний системы всегда I < VД = n .

Наиболее часто используются двоичные и десятичные логарифмы. Единицами измерения в этом случае будут бит и дит.

Коды, использующие два различных элементарных сигнала, называются двоичными. Если отвлечься от фи­зической природы сигналов, удобно обозначать их сим­волами 0 и 1. Тогда кодовые слова можно представлять как последовательность из нулей и единиц.

Существует много кодов: двоичный код обмена инфор­мации ДКОИ, восьмеричный код обмена информацией КОИ-8, в современных персональных компьютерах ин­формация представляется в коде ASCII (American Stan­dard Code for Information Interchange) — американский стандартный код для обмена информацией. В России ис­пользуется так называемая альтернативная ASCII коди­ровка, содержащая символы русского алфавита.

При вводе информации в компьютер каждый символ - буква русского или латинского алфавита, цифра, знак пунктуации или действия кодируется определенной пос­ледовательностью из восьми двоичных цифр в соответ­ствии с таблицей кодирования. Комбинация из 8 бит на­зывается байтом, или слогом.

Вероятностный подход

к определению количества информации

Важно при создании передающих систем знать, какое количество информации пройдет через эту передающую систему.

Количественный подход — наиболее разработанная ветвь теории информации. В соответствии с этим определением совокупность 100 букв — фраза из 100 букв из газеты, пьесы Шекспира или теоремы Эйнштейна — имеет в точности одинаковое количество информации.

Такое определение количества информации является полезным и практичным. Оно соответствует задаче инженера связи, который должен передать всю информацию, содержащуюся в поданной телеграмме, вне зависимости от ценности этой информации для адресата. Передающей системе необходимо передать нужное количество информации за определенное время.

Оценка количества информации основывается на законах теории вероятностей, точнее, определяется через вероятности событий.

Сообщение о событии, у которого только два одинаково возможных исхода, содержит одну единицу информации называемую битом. Выбор единицы информации не случаен. Он связан с наиболее распространенным двоичным способом ее кодирования при передаче и обработке.

Известно, что количество информации зависит от вероятностей тех или иных исходов события. Если событие, как говорят ученые, имеет два равновероятных исхода, это означает, что вероятность каждого исхода равна 1 : 2. Такова вероятность выпадения «орла» или «решки» при бросании монеты. Если событие имеет три равновероятных исхода, то вероятность каждого равна 1 : 3. Следует отметить, что сумма вероятностей всех исходов всегда равна единице: ведь какой-нибудь из всех возможных исходов обязательно наступит.

Событие может иметь и неравновероятные исходы. Так, при футбольном матче между сильной и слабой командами вероятность победы сильной команды велика — например, 4 : 5. Вероятность ничьей намного меньше, например 3 : 0. Вероятность же поражения совсем мала.

Количество информации — это мера уменьшения неопределенности некоторой ситуации. Различные количества информации передаются по каналам связи, и количество проходящей информации не может быть больше его пропускной способности. Ее определяют по количеству информации за единицу времени.