Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Шпоры по информатике (очень удобные)

.doc
Скачиваний:
149
Добавлен:
10.05.2014
Размер:
385.02 Кб
Скачать

12.Позиционные системы счисления:представление и правила перевода, положительных рациональных чисел в произвольных позиционных системах счисления.

Систе́ма счисле́ния — символический метод записи чисел, представление чисел с помощью письменных знаков. Системы счисления подразделяются на позиционные, непозиционные и смешанные. В позиционных системах счисления один и тот же числовой знак (цифра) в записи числа имеет различные значения в зависимости от того места (разряда), где он расположен. Разряд — это структурный элемент числа в позиционных системах счисления. В десятичной системе число 421 равняется.

Каждая позиционная система счисления определяется некоторым числом b > 1 (т. н. основание системы счисления) Система счисления с основанием b также

называется b-ричной. Если не возникает разночтений (например, когда все цифры представляются в виде уникальных письменных знаков), число x записывают в виде последовательности его b-ричных цифр, перечисляемых по убыванию старшинства разрядов слева направо:

Правила перевода:

Двоичная система счисления — позиционная целочисленная система счисления с основанием 2. Используются цифры 0 и 1. Допустим, нам нужно перевести число 19 в двоичное.

19 /2 = 9 с остатком 1

9 /2 = 4 c остатком 1

4 /2 = 2 с остатком 0

2 /2 = 1 с остатком 0

1 /2 = 0 с остатком 1 В результате получаем число 19 в двоичной записи (начиная с конца): 10011

12. (2) Шестнадцатеричная система счисления (шестнадцатеричные числа) — позиционная система счисления по целочисленному основанию 16. Обычно в качестве шестнадцатеричных цифр используются десятичные цифры от 0 до 9 и латинские буквы от A до F для обозначения цифр от 10 до 15. Перевод чисел из одной системы счисления в другую.

Перевод чисел из шестнадцатеричной системы в десятичную. Например, требуется перевести шестнадцатеричное число 5A3 в десятичное. В этом числе 3 цифры, представим его в виде суммы степеней с основанием 16:

5A3=5·16+10·16+3·16

=5·256+10·16+3·1=1280+160+3=1443

Перевод чисел из двоичной системы в шестнадцатеричную

Для перевода многозначного двоичного числа в

шестнадцатеричную систему нужно разбить его на тетрады справа налево и заменить каждую тетраду соответствующей шестнадцатеричной цифрой.

Например:

10110100011=0101 1010 0011=5A3

(Таблица приведена в 12 (3) )

Переведём в восьмеричную систему счисления. Для этого число 124 (в 10ой системе) разделим на число 8.

С помощью таблицы (12 (3) ) можно сразу перевести в 6 или в 8ричную.

12 (3)

0000 0 Таблица перевода с 2 в 16ую.

0001 1

0010 2

0011 3

0100 4

0101 5

0110 6

0111 7

1000 8

1001 9

1010 a

1011 b

1100 c

1101 d

1110 e

1111 f

Перевод из восьмеричной и шестнадцатеричной систем в двоичную. Для этого типа операций существует упрощенный алгоритм-перевёртыш.

Для восьмеричной — преобразуем по таблице в триплеты

0 000 4 100

1 001 5 101

2 010 6 110

3 011 7 111 Для шестнадцатеричной — преобразуем по таблице в квартеты

0 0000 4 0100 8 1000 C 1100

1 0001 5 0101 9 1001 D 1101

2 0010 6 0110 A 1010 E 1110

3 0011 7 0111 B 1011 F 1111

Пример: преобразуем

54 (в 8ричн) → 101 100

2C( в 16ричн) → 0010 1100

13. Позиционные системы счисления:представление и правила перевода, положительных рациональных чисел в произвольных позиционных системах счисления с кратными основаниями.

Система счисления — способ записи чисел с помощью заданного набора специальных знаков (цифр). Позиционная система счисления — система счисления, в которой вес цифры меняется с изменением положения цифры в числе, но при этом полностью определяется написанием цифры и местом, которое она занимает. В частности, это означает, что вес цифры не зависит от значений окружающих ее цифр. Кратное натурального (целого положительного) числа а, натуральное число, делящееся на а без остатка. Так, 156 есть Кратное 13.

14. Позиционные системы счисления:представление и правила перевода целых отрицательных чисел в произвольных позиционных системах счисления.

Дополнительный код— наиболее распространенный способ представления отрицательных целых чисел в компьютерах. Он позволяет заменить операцию вычитания на операцию сложения. Дополнительный код отрицательного числа получается инвертированием двоичного числа и прибавлением к нему единицы. Преобразование числа из прямого кода в дополнительный осуществляется по следующему алгоритму.

Если число, записанное в прямом коде, положительное, то к нему дописывается старший (знаковый) разряд, равный 0, и на этом преобразование заканчивается;

Если число, записанное в прямом коде, отрицательное, то все разряды числа инвертируются

(преобразовываются), а к результату прибавляется 1. К получившемуся числу дописывается старший (знаковый) разряд, равный 1.

Например:

А=1801, В=-333 (в десятичной)

Переводим оба числа в двоичную систему.

1801=709, -333=-14D

14D (доводим до 15 и получаем EB2)

EB2 (к полученному прибавляем 1)

1

EB3

Отpицательные - модуль числа не меняется при переходе к другой СС, посему: запомнить знак, пpименить стандаpтный метод - поставить знак.

12 (4) Перевод десятичных дробей в двоичную систему счисления. Например, переведём десятичную дробь 0,75 в двоичную систему

0,75=0,11 (в 2-ичной)

Например, переведём десятичную дробь 71,5 в двоичную систему счисления

Переведём целую часть 71 в двоичную систему счисления по алгоритму перевода целого десятичного числа в двоичное:

71=1000111

Переведём дробную часть методом последовательного умножения:

0,5=0,1

Запишем результат 71,5=1000111+ 0,1= 1000111,1

0,666

2

1,332

2

0,664

2

1,328

2

0,656

0,10101010

14 (2) Перевод отрицательных двоичных в 10-ую систему происходит так:

переворачиваем все цифры на противоположные, т.е. вместо 0 ставим 1 и наоборот.

11111011b -> 00000100b

переводим полученное в Dec

00000100b = 4

добавляем 1

4 + 1 = 5

ставим знак минус

5 -> -5

15. Связь информационной емкости двоичного кода и динамического диапазона представления целых чисел. Информационная емкость двоичного кода - количество состояний, каждое из которых может приобретать двоичный код определенной длины.

В качестве единицы измерения

информационной емкости используются бит, представляющий собой один ( любой )

разряд двоичного числа. Часто используются производные единицы:

байт ( 1 байт = 8 бит );

Кбайт ( 1 Кбайт = 210 байт );

Мбайт ( 1 Мбайт = 220 байт ) и др.

Информационная емкость записывается, как правило, в виде произведения:

Синф = n x m, где

n - число двоичных слов;

m - разрядность слова.

Например, емкость ОЗУ типа К155РУ1 составляет

Синф = 16 х 1 бит = 16 бит.

Емкость ППЗУ типа К155РЕЗ равна

Синф = 32 х 8 бит = 256 бит = 32 байта.

Информационный объем сообщения (информационная емкость сообщения) - количество информации в сообщении, измеренное в битах, байтах или производных единицах (Кбайтах, Мбайтах и т.д.).

Бит - двоичный знак двоичного алфавита {0, 1}.

Бит- минимальная единица измерения информации.

Байт - это восьмиразрядный двоичный код, с помощью которого можно представить один символ.

Байт - единица количества информации в системе СИ.

(В 15(2) пойдёт СНАЧАЛА тоже самое, но более точно и далее продолжение вопроса) 

15 (2) В ЭВМ (компьютер) ИСПОЛЬЗУЮТСЯ 2 СИМВОЛА- НОЛЬ И ЕДИНИЦА (0 и 1), АНАЛОГИЧНО ТОМУ, КАК В АЗБУКЕ МОРЗЕ ИСПОЛЬЗУЮТСЯ ТОЧКА И ТИРЕ. ЭТО СВЯЗАНО С ТЕМ, ЧТО ИНФОРМАЦИЮ, ПРЕДСТАВЛЕННУЮ В ТАКОМ ВИДЕ, ЛЕГКО ТЕХНИЧЕСКИ СМОДЕЛИРОВАТЬ, НАПРИМЕР В ВИДЕ ЭЛЕКТРИЧЕСКИХ СИГНАЛОВ. Оперативная память состоит из очень большого числа триггеров- электронных схем, состоящих из двух транзисторов. Триггер может сколь угодно долго находиться в одном из двух состояний- когда один транзистор открыт, а другой закрыт, или наоборот. Одно состояние обозначается нулем, а другое единицей. (Транзи́стор— трёхэлектродный полупроводниковый электронный прибор). ОБЪЕМ ИНФОРМАЦИИ, НЕОБХОДИМЫЙ ДЛЯ ЗАПОМИНАНИЯ ОДНОГО ИЗ ДВУХ СИМВОЛОВ-0 ИЛИ 1, НАЗЫВАЕТСЯ 1 БИТ.

Если у нас есть один бит, то с его помощью мы можем закодировать один из двух символов- либо 0, либо 1. Если же есть 2 бита, то из них можно составить один из четырех вариантов кодов: 00 , 01 , 10 , 11 . Если есть 3 бита- один из восьми: 000 , 001 , 010 , 100 , 110 , 101 , 011 , 111 . Закономерность очевидна:

1 бит- 2 варианта, 2 бита- 4 варианта, 3 бита- 8 вариантов. N бит - 2 в степени N вариантов.

ДЛЯ КОДИРОВАНИЯ ОДНОГО ПРИВЫЧНОГО ЧЕЛОВЕКУ СИМВОЛА В ЭВМ ИСПОЛЬЗУЕТСЯ 8 БИТ, ЧТО ПОЗВОЛЯЕТ ЗАКОДИРОВАТЬ 256 РАЗЛИЧНЫХ СИМВОЛОВ. СТАНДАРТНЫЙ НАБОР ИЗ 256 СИМВОЛОВ НАЗЫВАЕТСЯ ASCII ( произносится "аски", означает "Американский Стандартный Код для Обмена Информацией"- англ. American Standart Code for Information Interchange).

15 (2) КАЖДОМУ СИМВОЛУ ASCII СООТВЕТСТВУЕТ 8-БИТОВЫЙ ДВОИЧНЫЙ КОД, НАПРИМЕР:

A - 01000001, B - 01000010, C - 01000011, D – 01000100.

Таким образом, если человек создает текстовый файл и записывает его на диск, то на самом деле каждый введенный человеком символ хранится в памяти компьютера в виде набора из восьми нулей и единиц. При выводе этого текста на экран или на бумагу специальные схемы - знакогенераторы видеоадаптера (устройства, управляющего работой дисплея) или принтера образуют в соответствии с этими кодами изображения соответствующих символов. ОБЪЕМ ИНФОРМАЦИИ, НЕОБХОДИМЫЙ ДЛЯ ЗАПОМИНАНИЯ ОДНОГО СИМВОЛА ASCII НАЗЫВАЕТСЯ 1 БАЙТ. Очевидно что, поскольку под один стандартный ASCII-символ отводится 8 бит,

1 БАЙТ = 8 БИТ.

Остальные единицы объема информации являются производными от байта: 1 КИЛОБАЙТ = 1024 БАЙТА И СООТВЕТСТВУЕТ ПРИМЕРНО ПОЛОВИНЕ СТРАНИЦЫ ТЕКСТА, 1 МЕГАБАЙТ = 1024 КИЛОБАЙТАМ И СООТВЕТСТВУЕТ ПРИМЕРНО 500 СТРАНИЦАМ ТЕКСТА, 1 ГИГАБАЙТ = 1024 МЕГАБАЙТАМ И СООТВЕТСТВУЕТ ПРИМЕРНО 2 КОМПЛЕКТАМ ЭНЦИКЛОПЕДИИ, 1 ТЕРАБАЙТ = 1024 ГИГАБАЙТАМ И СООТВЕТСТВУЕТ ПРИМЕРНО 2000 КОМПЛЕКТАМ ЭНЦИКЛОПЕДИИ.

СКОРОСТЬ ПЕРЕДАЧИ ИНФОРМАЦИИ ПО ЛИНИЯМ СВЯЗИ ИЗМЕРЯЕТСЯ В БОДАХ.

1 БОД = 1 БИТ/СЕК. В частности, если говорят, что пропускная способность какого-то устройства составляет 28 Килобод, то это значит, что с его помощью можно передать по линии связи около 28 тысяч нулей и единиц за одну секунду.

1.Задача:Оцените период дискретизации непрерывного сигнала с частотным диапазоном 20-800 Гц, который позволяет полностью восстановить исходный сигнал.

Дискретизация - это процесс перевода аналогового сигнала в дискретный сигнал. Процесс обратный этому, называется восстановление. Непрерывный аналоговый сигнал заменяется здесь последовательностью коротких импульсов – отсчётов, величина которых равна значению сигнала в данный момент времени. Возможность точного воспроизведения такого представления зависит от интервала времени между отсчётами δt. Согласно теореме Котельникова:

где - наибольшая частота спектра сигнала.

16. Экономичность систем счисления.

Для оценки пригодности той или иной системы счисления в качестве основы для конструирования вычислительной машины имеет значение, кроме простоты осуществления арифметических операций в ней, также и то, что обычно называют экономичностью системы. Под этим понимается тот запас чисел, который можно записать в данной системе с помощью определенного количества знаков. Какая из систем счисления самая экономичная? В общем случае, если взять n знаков, а за основание системы счисления принять некоторое число x, то получится n/x разрядов, и количество чисел, которые при этом можно записать, будет равно xn/x . Рассмотрим это выражение как функцию переменной x, принимающей любые положительные значения. График функции y = xn/x изображен на рисунке:

Значение x, при котором эта функция достигает максимума, равно e. Ближайшее к e целое число – 3. Таким образом, троичная система является самой экономичной.

Под экономичностью системы счисления будем понимать то количество чисел, которое можно записать в данной системе с помощью определенного количества цифр. Речь в данном случае идет не о кол-ве разрядов, а об общем количестве сочетаний цифр, которые интерпретируются как различные числа. Поясним на примере: пусть в нашем распоряжении имеется12 цифр.

16(2). Мы можем разбить их на 6 групп по 2 цифры ("0" и "1") и получить шестиразрядное двоичное число; общее количество таких чисел, как уже неоднократно обсуждалось, равно 26. Можно разбить заданное количество цифр на 4 группы по три цифры и воспользоваться троичной системой счисления – в этом случае общее количество различных их сочетаний составит 34. Аналогично можно произвести другие разбиения; при этом число групп определит разрядность числа, а количество цифр в группе – основание системы счисления. Наиболее экономичной оказывается троичная система счисления, причем, результат будет тем же, если исследовать случаи с другим исходным кол-вом цифр. Точное расположение максимума экономичности может быть установлено путем следующих рассуждений.

Пусть имеется n знаков для записи чисел, а основание системы счисления p. Тогда количество разрядов числа k = n/p, а общее количество чисел (N), которые могут быть составлены, равно:

Если считать N(p) непрерывной функцией, то можно найти то значение pm, при котором N принимает максимальное значение. Для нахождения положения максимума нужно найти производную функции N(p), приравнять ее к нулю и решить полученное уравнение относительно p.

16(3). Приравнивая полученное выражение к нулю, получаем ln p = 1, или pm = e, где e=2,71828… – основание натурального логарифма. Ближайшее к e целое число, очевидно, 3 – по этой причине троичная система счисления оказывается самой экономичной для представления чисел. В 60-х годах в нашей стране была построена вычислительная машина "Сетунь", которая работала в троичной системе счисления. Предпочтение все же отдается двоичной системе, поскольку по экономичности она оказывается второй за троичной, а технически она реализуется гораздо проще остальных. Таким образом, простота технических решений оказывается не единственным аргументом в пользу применения двоичной системы в компьютерах.

17. Способы представления и кодирования информации в ЭВМ, единицы измерения информации.

Материал из инета: В ЭВМ информация кодируется числовыми кодами. Если система счисления имеет основание m, то числу разрядов n соответствует разное количество N комбинаций цифр (N=mn). Если m=2, n=4, то N=24=16: 0000, 0001, 0010, 0011 ..., 1111, то есть в 4 разрядах может быть записано I=log2 16=4 бит. При представлении информации в виде последовательности символов 0 и 1, раскодирование возможно при наличии соглашения о фиксированной длине последовательностей из 0 и 1, составляющих слово. Такой длиной принято считать восемь символов (0 и 1) -- 8 бит или байт. Более крупные единицы: 1 Кбайт = 1024 байта=210 байт, 1 Мбайт=1024 Кбайта=220 байт,

1 Гбайт=1024 Мбайта=230 байт,

В восьми разрядах (байте) можно записать 256 различных целых двоичных чисел, что достаточно, чтобы дать неповторяющееся обозначение каждой заглавной и строчной букве русского и английского алфавитов, цифрам, знакам препинания, всем символам на клавиатуре компьютера. Таблица кодирования символов 8-битовыми числами называется кодовой таблицей символов ASCII (American Standart Code for Information Interchange).

Материал из книги:

Способы кодирования информации: символьный, лингвистический, табличный, графический. Любой способ кодирования характеризуется наличием основы (алфавит, тезаурус, спектр цветности, система координат, основание системы счисления) и правил конструирования информационных образов на этой основе.

17(2). Коды, использующие два различных элементарных сигнала, называются двоичными. Если отвлечься от физической природы сигналов, удобно обозначать их символами 0 и 1. Тогда кодовые слова можно представлять как последовательность из нулей и единиц. Существует множество кодов: двоичный код обмена информации ДКОИ, восьмеричный код обмена информацией КОИ-8, в современных персональных компьютерах информация представляется в коде ASCII (American Standard Code for Information Interchange) – американский стандартный код для обмена информацией. В России исп-ся так наз. альтернативная ASCII кодировка, содержащая символы русского алфавита. При вводе информации в компьютер каждый символ-буква русского или латинского алфавита, цифра, знак пунктуации или действия кодируется определённой последовательностью из 8ми двоичных

цифр в соответствии с таблицей кодирования. Комбинация из 8 бит называется байтом, или слогом.

Вероятностный подход к определению кол-ва информации:

Количественный подход – наиболее разработанная ветвь теории информации. В соответствии с этим определением совокупность 100 букв – фраза из 100 букв из газеты, пьесы Шекспира или теоремы Эйнштейна – имеет в точности одинаковое количество информации. Оценка кол-ва информации основывается на законах теории вероятностей, точнее, определяется через вероятность событий. Сообщение о событии, у которого только два одинаково возможных исхода, содержит одну единицу информации, называемую битом. Выбор единицы информации не случаен. Он связан с наиб. Распростр-ым двоичным способом её кодирования при передаче и обработке.

17(3). Известно, что кол-во информации зависит от вероятностей тех или иных исходов события. Если событие, как говорят учёные, имеет два равновероятных исхода, это означает, что вероятность каждого исхода равна ½. Такова вероятность выпадения орла или решки при бросании монеты. Если событие имеет три равновероятных исхода, то вероятность каждого равна 1/3. следует отметить, что сумма вероятностей всех исходов всегда равна единице: ведь какой-нибудь из всех возможных исходов обязательно наступит. Событие может иметь и неравновероятные исходы. Так, при футбольном матче между сильной и слабой командами вероятность победы сильной команды велика – напр., 4/5. вероятность ничьей намного меньше, напр., 3/20. вероятность же поражения совсем мала. Количество информации – это мера уменьшения неопределённости некоторой ситуации.

Различные кол-ва информации передаются по каналам связи, и кол-во проходящей информации не может быть больше его пропускной способности. Её определяют по кол-ву информации за единицу времени.

Единицы измерения информации: В наст. время наиб. известны след-е способы измерения информации: объёмный, энтропийный, алгоритмический. Объёмный способ является простым и грубым способом измерения информации. Соответствующую количест-венную оценку информации естественно назвать объёмом информации. Объём информации в сообщении – это кол-во символов в сообщении. Т.к., например, одно и то же число может быть записано разными способами (с использованием разных алфавитов), то этот способ чувствителен к форме представления(записи) сообщения.

17(4). В вычислительной технике обрабатываемая и хранимая информация вне зависимости от её природы (число, текст, отображение) представлена в двоичной системе (с использованием алфавита, состоящего всего из двух символов – 0 и 1). Такая стандартизация позволила ввести две стандартные единицы измерения: бит и байт. Байт – это 8 бит. В теории информации и кодирования принят энтропийный подход к измерению информации. Этот способ исходит из следующей модели. Получатель информации (сообщения) имеет определённые представления о возможных наступлениях некоторых событий. Эти представления в общем случае недостоверны и выражаются вероятностями, с которыми он ожидает то или иное событие. Общая мера неопределённости (энтропия) характеризуется некоторой математической зависимостью от совокупности этих вероятностей.

Количество информации в сообщении определяется тем, насколько уменьшится эта мера после получения сообщения. Алгоритмический метод оценки информации в сообщении – заключается в том, что любому сообщению можно приписать количественную характеристику, отражающую сложность (размер) программы, которая позволяет её произвести.

Сущ-ет много разных вычислительных машин и разных языков программирования (разных способов задания алгоритма), и поэтому для определённости задаются некоторой конкретной вычислительной машиной. Предполагаемая количественная характеристика – сложность слова (сообщения) определяется как минимальное число внутренних состояний вычислительной машины, требующихся для его воспроизведения.

17(5). Из Википедии:

Бит – является основой исчисления информации в цифровой технике.

Следующей по порядку популярной единицей информации является 8 бит, или байт. Именно к байту (а не к биту) непосредственно приводятся все большие объёмы информации, исчисляемые в компьютерных технологиях.

Для измерения больших количеств байтов служат единицы «килобайт» = 1024 байт.

Единицы «мегабайт» = 1024 Кбайт = 1048576 байт применяются для измерения объёмов носителей информации.

Единицы «гигабайт» = 1024 Мбайт = 230 байт измеряют объём больших носителей информации, например жёстких дисков.