Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Скачиваний:
45
Добавлен:
18.03.2015
Размер:
68.1 Кб
Скачать

ТОИ(1). Теория информации.

Информатика как наука и как вид практической деятельности.

Термин ин-ка возник в 60 г. Выделение ин-ки как самостоятельной области в человеческой деятельности связано с развитием компьютерной техники. Ин-ка – фундаментальная наука, изучающая свойства информации и методы ее получения, хранения и обработки при помощи ЭВМ. Ин-ка делится на теоретическую и прикладную. Теор. ин-ка рассматривает все аспекты разработки автоматизированных И.С., их проектирование и создание. Прикладная ин-ка изучает конкретные разновидности И.Т., которые формируются с помощью специальных И.С. (медицинских, управленческих, военных).

Однако многие ученые подчеркивают, что информатика имеет характерные черты и других групп наук – технических и гуманитарных.

Информатика тесно связана с такими более специальными науками как теория информации, кибернетика, системотехника.

Роль информатики в современном обществе. Роль информатики в развитии общества чрезвычайно велика. С ней связано начало революции в области накопления, передачи и обработки информации.

Предмет информатики – информационный ресурс, его сущность, законы функционирования, механизмы взаимодействия с другими ресурсами общества и воздействие на соц. процесс. Информационный ресурс – знания, подготовленные людьми для социального использования в обществе и зафиксированные на материальном носителе.

Объектом инф-ки выступают автоматизированные, основанные на ЭВМ и телекоммуникационной техники, информационные системы (ИС) различного класса и назначения.

Инфор-ая система – взаимосвязанная совокупность средств, методов, персонала, используемых для хранения, обработки и выдачи информации в интересах достижения поставленной цели.

Инфор-ная технология (ИТ) машинизированные способы обработки, хранения, передачи и использования инф-ции в виде знаний, которые реализуются посредством автоматизированных инф-ых систем.

И. Т. включает 2 основных элемента: машинный и человеческий (социальный). Последний выступает главным.

Знания должны фиксироваться, трансформироваться, распределяться, приниматься и перерабатываться, т.е. преобразовываться в инфор-ые ресурсы (ИР).

Под И.Р. подразумеваются базы данных, информационно-поисковые системы, электронные журналы и т.д.

Информация–это первоначально сведения, передаваемые одними людьми другим устно, письменно или другим способом.(Бол. рос. энцикл)

Виды информации:

1)по способу кодирования: аналоговая, цифровая.

2) по сфере возникновения: элементарная (возн. в нежив. природе), биологическая, социальная.

3) по способу передачи и восприятия: визуальная, аудиальная, тактильная, вкусовая.

4) по общественному значению: массовая, специальная, личная.

Свойства информации:

Полнота, адекватность, интерпретируемость и понятность, достоверность, доступность, актуальность, релевантность

Единицей измерения количества инф-ции явл-ся бит.

Подходы к измерению информации:

1. Вероятностный: Оценивается количество информации I в сообщении о состояниях некоторой системы, которая может иметь определенное число состояний N. Если состояния системы равновероятны, то используют формулу Хартли: . В случае системы с равновозможными состояниями используют формулу Шеннона: , где pi – вероятность нахождения системы в состоянии .

Информационный процесс- это процесс, входе которого изменяется содержание информации или форма ее представления. Виды информационных процессов: -получение, хранение, передача, обработка, использование.

Источник →Канал связи→Приемник. Информация полученная приемником должна быть так или иначе сохранена, хранимую информацию наз. – данными.

Тои(2). Теория кодирования

Системы счисления: способ представления числа определяется системой счисления (СС). СС это правило записи чисел с помощью заданного набора специальных знаков – цифр. Используются различные способы записи чисел, которые можно объединить в группы: унарная, непозиционная, позиционная. Унарная- это СС в которой для записи чисел используется только один знак - | (палочка). Непозиционные- наиболее распространённой является римская СС. В ней некоторые базовые числа обозначены заглавными латинскими буквами: 1-|, 5- V, 10-Х, 50- L, 100-С,500-D, 1000- М. Все другие числа строятся комбинацией базовых. Позиционными наз. СС в которых значение каждой цифры в изображении числа определяется её положением (позицией) в ряду других цифр.

Информация передается в виде сообщения от некоторого источника инф-ции к ее приемнику посредством канала связи между ними. Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи. В результате в приемнике появляется принимаемый сигнал, который декодируется и становится принимаемым сообщением.

Побуквенное (алфавитное кодирование)

Кодирование F может сопоставлять код всему сообщению из мн-ва S как единому целому, или же строить код сообщений из кодов его частей. Элементарной частью сообщения явл-ся одна буква алфавита А.

Разделимые коды

Схема наз-ся разделимой, если любое слово, составленное из элементарных кодов, единственным образом разлагается на элементарные коды. Алфавитное кодирование с разделимой схемой допускает декодирование. Если таблица кодов содержит одинаковые элемент. коды, то схема заведомо не явл-ся разделимой.

Префиксные коды

Схема наз. префиксной, если элемент. код одной буквы, не явл-ся префиксом элемент. кода др. буквы. Префиксная схема явл-ся разделимой. Св-во быть префиксной явл-ся достаточным, но не явл-ся необходимым для разделимой схемы.

Метод Хаффмана

При построении оптимальных кодов используется метод Хаффмана:

1.Необх-мо выстроить исходные сообщения по невозрастанию их вероятностей.

2.Получить новое множество сообщений путем сложения двух сообщений с наименьшими вероятностями.

3.Пункты 1-2 повторять до тех пор, пока не останется 2 сообщ-я (процесс сжатия).

4.Каждому новому сообщению сопоставить кодовые слова 0 или 1.

5.Процесс расщепления: осущ-ся переход к предыдущему на данном этапе мн-ву сообщ-ий, в кот-м к сжимаемым сообщ-ям добавляется соответствующий кодовый символ 0 или 1.

6.Каждому сообщ-ю дописывается полученное кодовое слово.

Метод Фано

Пусть даноA1,A2,…,An сообщения,p1(A1),…,pn(An)-соответственно, вероятности сообщений.Располагаем n сообщений в порядке убывания их вероятностей: p1(A1)>=p2(A2)>=….pn(An). Далее разбиваем мн-во сообщений на 2 группы так, чтобы суммарные вероятности сообщений каждой из групп были как можно близки друг к другу. Сообщениям из одной группы в качестве первого символа кодового слова приписываем символ 0, сообщениям из др. группы-1.По тому же принципу каждую из полученных групп снова разбиваем на 2 части.Это разбиение определяет значение 2го символа код. слова. Процедура продолжается до тех пор, пока все мн-во не будет разбито на отдельные сообщения.В рез-те каждому из сообщений будет сопоставлено код.слово из 0 и 1.

Соседние файлы в папке ТЕОРИЯ наша!!!