ТОИ(1). Теория информации.
Информатика как наука и как вид практической деятельности.
Термин ин-ка возник в 60 г. Выделение ин-ки как самостоятельной области в человеческой деятельности связано с развитием компьютерной техники. Ин-ка – фундаментальная наука, изучающая свойства информации и методы ее получения, хранения и обработки при помощи ЭВМ. Ин-ка делится на теоретическую и прикладную. Теор. ин-ка рассматривает все аспекты разработки автоматизированных И.С., их проектирование и создание. Прикладная ин-ка изучает конкретные разновидности И.Т., которые формируются с помощью специальных И.С. (медицинских, управленческих, военных).
Однако многие ученые подчеркивают, что информатика имеет характерные черты и других групп наук – технических и гуманитарных.
Информатика тесно связана с такими более специальными науками как теория информации, кибернетика, системотехника.
Роль информатики в современном обществе. Роль информатики в развитии общества чрезвычайно велика. С ней связано начало революции в области накопления, передачи и обработки информации.
Предмет информатики – информационный ресурс, его сущность, законы функционирования, механизмы взаимодействия с другими ресурсами общества и воздействие на соц. процесс. Информационный ресурс – знания, подготовленные людьми для социального использования в обществе и зафиксированные на материальном носителе.
Объектом инф-ки выступают автоматизированные, основанные на ЭВМ и телекоммуникационной техники, информационные системы (ИС) различного класса и назначения.
Инфор-ая система – взаимосвязанная совокупность средств, методов, персонала, используемых для хранения, обработки и выдачи информации в интересах достижения поставленной цели.
Инфор-ная технология (ИТ) машинизированные способы обработки, хранения, передачи и использования инф-ции в виде знаний, которые реализуются посредством автоматизированных инф-ых систем.
И. Т. включает 2 основных элемента: машинный и человеческий (социальный). Последний выступает главным.
Знания должны фиксироваться, трансформироваться, распределяться, приниматься и перерабатываться, т.е. преобразовываться в инфор-ые ресурсы (ИР).
Под И.Р. подразумеваются базы данных, информационно-поисковые системы, электронные журналы и т.д.
Информация–это первоначально сведения, передаваемые одними людьми другим устно, письменно или другим способом.(Бол. рос. энцикл)
Виды информации:
1)по способу кодирования: аналоговая, цифровая.
2) по сфере возникновения: элементарная (возн. в нежив. природе), биологическая, социальная.
3) по способу передачи и восприятия: визуальная, аудиальная, тактильная, вкусовая.
4) по общественному значению: массовая, специальная, личная.
Свойства информации:
Полнота, адекватность, интерпретируемость и понятность, достоверность, доступность, актуальность, релевантность
Единицей измерения количества инф-ции явл-ся бит.
Подходы к измерению информации:
1. Вероятностный: Оценивается количество информации I в сообщении о состояниях некоторой системы, которая может иметь определенное число состояний N. Если состояния системы равновероятны, то используют формулу Хартли: . В случае системы с равновозможными состояниями используют формулу Шеннона: , где pi – вероятность нахождения системы в состоянии .
Информационный процесс- это процесс, входе которого изменяется содержание информации или форма ее представления. Виды информационных процессов: -получение, хранение, передача, обработка, использование.
Источник →Канал связи→Приемник. Информация полученная приемником должна быть так или иначе сохранена, хранимую информацию наз. – данными.
Тои(2). Теория кодирования
Системы счисления: способ представления числа определяется системой счисления (СС). СС это правило записи чисел с помощью заданного набора специальных знаков – цифр. Используются различные способы записи чисел, которые можно объединить в группы: унарная, непозиционная, позиционная. Унарная- это СС в которой для записи чисел используется только один знак - | (палочка). Непозиционные- наиболее распространённой является римская СС. В ней некоторые базовые числа обозначены заглавными латинскими буквами: 1-|, 5- V, 10-Х, 50- L, 100-С,500-D, 1000- М. Все другие числа строятся комбинацией базовых. Позиционными наз. СС в которых значение каждой цифры в изображении числа определяется её положением (позицией) в ряду других цифр.
Информация передается в виде сообщения от некоторого источника инф-ции к ее приемнику посредством канала связи между ними. Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи. В результате в приемнике появляется принимаемый сигнал, который декодируется и становится принимаемым сообщением.
Побуквенное (алфавитное кодирование)
Кодирование F может сопоставлять код всему сообщению из мн-ва S как единому целому, или же строить код сообщений из кодов его частей. Элементарной частью сообщения явл-ся одна буква алфавита А.
Разделимые коды
Схема наз-ся разделимой, если любое слово, составленное из элементарных кодов, единственным образом разлагается на элементарные коды. Алфавитное кодирование с разделимой схемой допускает декодирование. Если таблица кодов содержит одинаковые элемент. коды, то схема заведомо не явл-ся разделимой.
Префиксные коды
Схема наз. префиксной, если элемент. код одной буквы, не явл-ся префиксом элемент. кода др. буквы. Префиксная схема явл-ся разделимой. Св-во быть префиксной явл-ся достаточным, но не явл-ся необходимым для разделимой схемы.
Метод Хаффмана
При построении оптимальных кодов используется метод Хаффмана:
1.Необх-мо выстроить исходные сообщения по невозрастанию их вероятностей.
2.Получить новое множество сообщений путем сложения двух сообщений с наименьшими вероятностями.
3.Пункты 1-2 повторять до тех пор, пока не останется 2 сообщ-я (процесс сжатия).
4.Каждому новому сообщению сопоставить кодовые слова 0 или 1.
5.Процесс расщепления: осущ-ся переход к предыдущему на данном этапе мн-ву сообщ-ий, в кот-м к сжимаемым сообщ-ям добавляется соответствующий кодовый символ 0 или 1.
6.Каждому сообщ-ю дописывается полученное кодовое слово.
Метод Фано
Пусть даноA1,A2,…,An сообщения,p1(A1),…,pn(An)-соответственно, вероятности сообщений.Располагаем n сообщений в порядке убывания их вероятностей: p1(A1)>=p2(A2)>=….pn(An). Далее разбиваем мн-во сообщений на 2 группы так, чтобы суммарные вероятности сообщений каждой из групп были как можно близки друг к другу. Сообщениям из одной группы в качестве первого символа кодового слова приписываем символ 0, сообщениям из др. группы-1.По тому же принципу каждую из полученных групп снова разбиваем на 2 части.Это разбиение определяет значение 2го символа код. слова. Процедура продолжается до тех пор, пока все мн-во не будет разбито на отдельные сообщения.В рез-те каждому из сообщений будет сопоставлено код.слово из 0 и 1.