Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
01_основные_понятия.doc
Скачиваний:
5
Добавлен:
20.11.2019
Размер:
704 Кб
Скачать

Дисциплина: "Информатика"

Элементы теории и задания для подготовки к тестированию по теме

"01 Основные понятия и методы теории информатики и кодирования. Сигналы, данные, информация. Общая характеристика процессов сбора, передачи, обработки и накопления информации"

1

Основные понятия и методы теории информатики и кодирования. Сигналы, данные, информация. Общая характеристика процессов сбора, передачи, обработки и накопления информации

1

Сообщения, данные, сигнал, атрибутивные свойства информации, показатели качества информации, формы представления информации. Системы передачи информации

2

Меры и единицы количества и объема информации

3

Позиционные системы счисления

4

Логические основы ЭВМ

Основные понятия и методы теории информатики и кодирования

Сообщения, данные, сигнал, атрибутивные свойства информации, показатели качества информации, формы представления информации. Системы передачи информации

Одним из следствий научно-технического прогресса конца XX — начала XXI в., является противоречие между ограниченными возможностями человека и огромным объемом существующей и вновь появляющейся информации.

Информация наряду с материей и энергией является одной из фундаментальных сущностей окружающего мира.

Под информационными технологиями (ИТ) понимается вся совокупность форм, методов и средств автоматизации информационной деятельности в различных сферах.

Как наука ИТ включает:

методологические положения; методические положения; организационные установки; методы использования инструментально-технических средств.

Можно сказать, что ИТ включают все то, что регламентирует и поддерживает информационное производство и деятельность людей, вовлеченных в это производство.

Развитие информационных технологий включает этапы:

дописьменный,

письменности,

книгопечатания (механический),

электромеханический (телеграф, телефон, пишущая машинка и т.д.),

электронный (компьютеры и информационно–вычислительные сети).

Необходимость перехода от бумажной ИТ к безбумажной ИТ обусловлена увеличением информации в области социально – экономического управления до таких объемов, которые бумажные ИТ не успевают вовремя обрабатывать.

Информатика (computer science) – сводное название областей науки и техники, связанных с использованием средств вычислительной техники (ВТ) и современных средств коммуникации.

В информатике изучаются: алгоритмические, программные и технические средства.

Предмет изучения информатики:

методы преобразования, передачи и использования информации;

закономерности и методы создания, хранения и поиска информации;

методы и способы защиты информации.

Задачи информатики:

  • накопление и обработка информации с целью получения новых знаний,

  • систематизация приемов и методов работы с программными средствами вычислительной техники

  • систематизация приемов и методов работы с аппаратными средствами вычислительной техники.

Основной метод, используемый в информатике - моделирование информационных процессов с помощью компьютера.

Предмет курса – использование ВТ для решения профессиональных задач.

Информация. Сигналы. Данные,

Термин «информация» происходит от латинского informatio — разъяснение, изложение, осведомленность.

Информация (сведения) – базовое неопределяемое понятие (наряду с материей и энергией), соответствует наличию порядка, организации в какой–то области, и отсутствию неопределенности. Противоположное понятие – энтропия (беспорядок)

Увеличение информации

Строгий порядок

Полный хаос

(неопределенность)

Рост энтропии

Сигнал - результат любого взаимодействия физических объектов, при котором происходит изменение свойств взаимодействующих объектов.

(регистрацией сигналов…)?.

Данные - Сигналы, зарегистрированные на материальном носителе.

Данные, несущие информацию о событии, могут не являться информацией, т. к. одни и те же данные воспринимаются в сознании людей по-разному. Например, текст, написанный на русском языке, даст различную информацию, человеку, знающему алфавит и язык, и не знающему. Чтобы получить информацию, имея данные, необходимо применить к ним методы, которые преобразуют данные в понятия. Методы также бывают различными. Например, человек, знающий русский язык, применяет адекватный метод, читая текст на русском языке. А, человек, не знающий русского языка применяет неадекватный метод, пытаясь понять русский тест.

Таким образом, можно считать, что информация – это продукт взаимодействия данных и адекватных методов.

Знание – информация, как описание объектов, их свойств и связей. Включает компоненты: декларативный - само описание и процедурный - правила действия, операции.

Знания отличаются от Данных - наличием причинно-следственных связей.

Информация – это физическая величина, такая же, например энергия или скорость, поэтому она должна измеряться.

Количество информации - числовая характеристика сигнала, отражающую ту величину (степень) неопределенности (неполноту знаний), которая исчезает после получения данных. Эту меру неопределенности в теории информации называют энтропией.

Энтропия - величина неопределенности (неполноты знаний), которая исчезает после получения данных.

Для ее измерения принимается минимальная единица хранения информации– 1 бит (binary digit), элемент памяти, который может переключаться между двумя состояниями, обозначаемыми 0 и 1. Связь между количеством информации и числом состояний системы устанавливается формулой Хартли:

N=2I,

где: N – количество возможных событий,

I – количество информации.

Например, если мы бросаем монету, то сначала неопределенность наших знаний равна 2, так как мы не знаем, что выпадет «орел» или «решка». После броска мы уже знаем, в каком положении находится монета – либо «орел», либо «решка», т. е. неопределенность наших знаний уменьшилась в два раза.

Если события не равновероятны, то для вычисления энтропии (количества информации) используется формула Шеннона (1948г):

,

где: N – количество возможных событий,

I – количество информации,

pi – вероятности отдельных событий.

Для равновероятных событий количество информации можно вычислить по формуле:

.

Для равновероятных событий величина количества информации принимает максимальное значение.

Задача 1. Эксперимент состоит в однократном подбрасывании игральной кости (6 граней). Чему равна информативность результата эксперимента?

Рассуждаем т. о. События не равновероятны, если судить о том, сколько выпадет точек на грани? А максимально-6. Допустим, что события равновероятны, тогда I=log26. А это меньше, чем log28=3. Ответ: Информативность результата меньше 3-х бит.

Семантическая емкость информации (знаний) – ее смысл, содержание общие для различных форм представляющих информацию данных (форм записи).

Представление информации в виде слов определяет вербальный характер информации

Адекватность или достоверность знаний (информации) – степень их соответствия реальности (Иногда эти понятия различают и понимают более узко, включая в адекватность степень соответствия ситуации намерениям источника, а в достоверность степень подтвержденности, гарантированности данных).

Свойства информации:

полнота (достаточность для данных целей),

доступность (возможность получения и использования),

актуальность (соответствие текущим задачам и ситуации),

объективностьсубъективность (степень искажений, внесенных участниками и элементами информационного процесса)

Информационный процесс, основные операции с данными

Информация функционирует в информационном процессе.

Информационные процессы связывают между собой источник и получатель информации. Источником и получателем могут быть люди, живые организмы и их элементы, компьютеры и другие технические устройства.

Схема информационного процесса.

Источник - человек, документ, СМИ, датчик и т.д.

Информационный канал - способ передачи.

Цели использования информации в обществе.

Кодирование числовой информации

В памяти компьютера данные хранятся в виде дискретных единиц (знаков), закодированных цифрами. Минимальная единица хранения – 1 бит (binary digit). 1 бит- это элемент памяти (разряд), который может переключаться между двумя состояниями, обозначаемыми 0 и 1 и который может быть реализован на различных физических принципах – гидравлическом, механическом, электрическом, электронном и т.д. Любая информация в памяти занимает целое число бит. 1 бит может хранить признак принимающий одно из двух значений («ж», «м»). Для хранения признака с тремя значениями («ребенок», «средний возраст», «пожилой») необходимо и достаточно 2 бита. Два бита позволяют хранить признак с 4-мя значениями («ребенок», «подросток», «средний возраст», «пожилой»), В общем случае N бит позволяют хранить 2N различных значений. Для хранения кода символов текста (66 знаков кириллицы, 52 латиницы, 10 цифр, ≈20 дополнительных) требуется 8 бит=1 байт.

Единицы памяти: 1 байт(б)=8бит, полуслово=2б(16бит), слово=4б (32бита), двойное слово=8б (64бита), Кбайт=1024(210 бит), Мбайт=1024Кб(220 бит), Гигабайт=1024Мб (230 бит), Терабайт=1024Гб (240 бит).

1 килобайт (1 Кбайт) = 210 байт = 1024 байт,

1 мегабайт (1 Мбайт) = 210 Кбайт = 1024 Кбайт = 220 байт,

1 гигабайт (1 Гбайт) = 210 Мбайт=1024 Мбайт = 230 байт,

1 терабайт (1 Тбайт) = 210 Гбайт = 1024 Мбайт = 240 байт,

1 петабайт (1 Пбайт) = 210 Тбайт = 1024 Тбайт = 250 байт.

1 экзабайт = 210 Пбайт =260 байт.

Кодирование текстовой информации.

Для кодирования текстовых (символьных) данных используются специальные кодовые таблицы. Кодовая таблица — это внутреннее представление в машине алфавитно-цифровой информации. При кодировании восьмибитовыми числами (1б) в кодовой таблице каждому символу — букве, цифре, служебному знаку присвоен какой-либо код — десятичное число от 0 до 255.

Во всем мире в качестве стандарта для представления символьной информации в компьютере используется американский стандартный ASCII (American Standard Code for Information Interchange). Кодовая таблица разделена на две половины. Первая — основной стандарт с кодами от 0 до 127, которые соответствуют основному международному стандарту ASCII, используется для кодирования цифр и букв латинского алфавита, а также управляющих символов (с кодами 0—31). Вторая половина кодовой таблицы — таблица расширений — с кодами от 128 до 255 не определяется международными стандартами и предназначена для кодирования символов национальных алфавитов, псевдографических символов и некоторых математических знаков

Недостаток – для букв кириллицы существует 5 таблиц кодировки: CP866 (для MS DOS), CP1251 (для MS Windows), ISO 8859–5 (автор – International Standards Organization), Mac (для Mac OS компьютеров Apple).

Существует система кодирования 16-битовыми словами (2б) позволяет обеспечить отдельные коды для 65 536 символов. Такая система получила название универсальной — UNICODE (ЮНИКОД), она позволяет закодировать в одной таблице все символы мировых алфавитов. Систему UNICODE поддерживает Windows 2000 и более поздние версии этой операционной системы.

Хранение данных в компьютере

Для хранения и обработки данных в компьютере используется совокупность определенного количества разрядов, которая называется разрядной сеткой. При этом число элементарных разрядов n, с которыми компьютер оперирует как с одним целым (считывает из памяти, производит вычисления), характеризует разрядность его элементов (например, всевозможных регистров процессора, запоминающих устройств). В современных компьютерах используется число разрядов n, являющееся степенью числа 2.

Группа из восьми соседних элементарных ячеек (регистров) и называется байтом. С помощью одного байта можно закодировать 28=256 различных букв, цифр или положительных чисел в диапазоне от 0 до 255.

Возможности байта для кодирования данных ограничены из-за слишком малой разрядности. Поэтому компьютеры устроены так, что они могут оперировать как с единым целым не только с одним байтом, но также и с группами из двух, четырех, восьми и т.д. соседних байт.

Подобные группы байт принято называть (в зависимости от архитектуры компьютера) словом, полусловом, двойным словом. В большинстве случаев, словом называют группу из четырех соседних байт, группу из двух соседних байт - полусловом, группу из восьми соседних байт - двойным словом. Такие единицы используются в основном для представления числовых данных.

Байт

0

Байт

1

Байт

2

Байт

3

Байт

4

Байт

5

Байт

6

Байт

7

Полуслово

Полуслово

Полуслово

Полуслово

СЛОВО

СЛОВО

ДВОЙНОЕ СЛОВО

Представление и обработка числовой информации в компьютере

Представление целых чисел без знака. Целое число без знака располагается в регистре (слове, полуслове или двойном слове) так, что его самый младший двоичный разряд записывается в крайний правый бит разрядной сетки, причем все разряды должны быть обязательно заполнены, даже если в этом разряде будет храниться “незначащий ноль”. Например, десятичное число 1910=100112 в 16-разрядном представлении (полуслове) запишется так:

15

14

13

12

11

10

9

8

7

6

5

4

3

2

1

0

0

0

0

0

0

0

0

0

0

0

0

1

0

0

1

1

При такой форме представления целых чисел без знака диапазон их возможных значений находится в пределах от 0 до 2n-1, где n – число разрядов в регистре (разрядной сетке). В таблице приведены максимальные значения десятичных чисел без знака и соответствующее им число разрядов (бит):

Число разрядов

Максимальное двоичное число без знака

Максимальное десятичное число без знака

8

11111111

28 –1 = 255

16

1111111111111111

216 –1 = 65535

32

11111111111111111111111111111111

232 –1 = 4294967295

Представление целых чисел со знаком. Для представления целых чисел со знаком один разряд, как правило, старший отводится под знак числа. Знак положительного числа кодируется нулем, а знак отрицательного - единицей в этом разряде.

15

14

13

12

11

10

9

8

7

6

5

4

3

2

1

0

0

0

0

0

0

0

0

0

0

0

0

1

0

0

1

1

Знак числа «+»

Такая форма представления целых чисел со знаком, когда крайний левый бит разрядной сетки отводится под знак числа, а остальные n-1 бит отводятся под цифры числа в двоичной системе счисления, называется прямым кодом двоичного числа. Прямой код положительного числа фактически совпадает с самим числом, а прямой код отрицательного числа отличается от положительного только наличием единицы в знаковом разряде.

Естественно, что выделение одного разряда под знак числа приводит к уменьшению имеющихся в нашем распоряжении разрядов регистра на единицу. Поэтому, максимальное значение числа, которое можно представить в n-разрядном регистре, также уменьшится. Теперь оно будет равно 2n-1-1

Форма представления двоичных чисел в виде прямого кода используется в компьютере только для представления целых положительных чисел.

Сложение положительных чисел в компьютерной арифметике осуществляется над прямыми кодами двоичных чисел. Для реализации операции вычитания, используется специальная форма представления отрицательных чисел, называемая дополнительным кодом, что позволяет заменить операцию вычитания простым сложением. При этом операция сложения выполняется над всеми разрядами полученного дополнительного кода, т.е. распространяется и на разряды знаков, рассматриваемых в данном случае как разряды целой части числа.

Дополнительный код отрицательного двоичного числа получается по следующему правилу:

  1. отрицательное двоичное число записывается в прямом коде;

  2. все двоичные разряды, кроме знакового, инвертируются (единицы заменяются нулями, а нули – единицами);

  3. к инвертированному числу прибавляется единица по правилам сложения двоичных чисел.

Таким образом, при алгебраическом сложении (алгебраическое сложение – это сложение чисел со знаками) двух двоичных чисел с использованием дополнительного кода, положительные слагаемые представляются в компьютере в прямом коде, а отрицательные – в дополнительном. Затем производится суммирование этих кодов, включая разряды знаков. При возникновении переноса из знакового разряда единица переноса отбрасывается, т.к. она вышла за пределы разрядной сетки. В результате получается алгебраическая сумма в прямом коде, если она положительна, и в дополнительном коде, если эта сумма получилась отрицательной.

Представление вещественных чисел. При решении конкретных физических, математических и других задач фигурируют как очень малые, так и очень большие числа. Диапазон изменения величин может при этом составлять от 10-30 до 10+30.

Представление чисел в естественной форме в виде записи целой и дробной части числа, отделенных друг от друга запятой, называется формой представления чисел с фиксированной запятой. Ясно, что занимать разряды для хранения нулей в конце числа или в начале после запятой крайне неэффективно. Поэтому для представления вещественных чисел в современных компьютерах применяется другая форма, которую принято называть форма представления вещественных чисел с плавающей запятой.

В этом формате разряды регистра разбиваются на два поля, имеющие название мантисса и порядок. К тому же используется нормализованная форма записи чисел, при которой у мантиссы старший разряд обязательно меньше 1, а порядок – целое положительное или отрицательное число:

А = mКp,

где m – мантисса числа, p – порядок числа (m < 1), К – основание системы счисления.

При записи числа с плавающей точкой выделяются разряды для хранения знака мантиссы, порядка и мантиссы, например (для простоты взято 4-х байтовое представление):

31

30

29

28

27

26

25

24

23

22

6

5

4

3

2

1

0

Зн. м

Смещенный порядок

Мантисса без старшей единицы

Порядок числа запоминается увеличенным на 2k-1 - 1, где k – количество разрядов, отведенное для кодирования порядка. Такой порядок называется смещенным:

pм= p + (2k-1-1), где p – порядок числа, pм – машинный порядок.

Для 4-х байтового представления машинный порядок будет вычисляться по формуле : pм= p + (27-1) или pм= p + 127.

При таком способе представления отпадает необходимость кодирования знака порядка.

Т.к. при нормализованной форме записи вещественного числа в двоичной системе счисления первая цифра мантиссы у любого числа всегда 1, то отпадает необходимость хранить эту единицу. Поэтому мантисса запоминается без первой единицы. Она считается скрытым разрядом. Таким образом, при хранении мантиссы этой единицы нет, однако при аппаратном выполнении операций она, естественно учитывается.

Всякое десятичное число, прежде чем оно попадает в память компьютера, преобразуется по схеме:

  1. A10 m10p, мантисса и порядок числа при этом записываются в двоичной системе счисления.

  2. В полученном нормализованном двоичном числе мантисса и порядок заменяется прямым кодом, если числа положительны и дополнительным кодом, если они отрицательны.

  3. Полученные коды порядка и мантиссы помещаются в ячейки памяти компьютера.

Это преобразование осуществляется автоматически при вводе данных в компьютер. В процессе выполнения вычислений коды мантисс и порядка конкретных чисел извлекаются из ячеек памяти и направляются в арифметическое устройство, где над кодами по специальным правилам двоичной арифметики выполняются действия.