Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

[Alekseev_A.P.]_Informatika_2015(z-lib.org)

.pdf
Скачиваний:
221
Добавлен:
26.01.2020
Размер:
8.07 Mб
Скачать

А.П. Алексеев

ИНФОРМАТИКА 2015

Учебное пособие

Рекомендовано к изданию методическим советом Поволжского государственного университета телекоммуникаций и информатики

Москва СОЛОН-Пресс

2015

004:004.056(075.8) А47

Рекомендовано к изданию методическим советом ПГУТИ, протокол № 15 от 17 декабря 2014 г.

Рецензенты:

Заведующий кафедрой компьютерных систем и технологий Шуменского университета им. Епископа Константина Преславского (Болгария), д.т.н,

профессор Станев Станимир Стоянов.

Профессор кафедры геоинформатики и информационной безопасности Самарского государственного аэрокосмического университета им. С.П.Королёва (Национального исследовательского университета) д.т.н., профессор, Лауреат Государственной Премии СССР

Мостовой Яков Анатольевич.

Алексеев, А.П.

Информатика 2015: учебное пособие/ Алексеев А.П.— 2015. — 400 с., илл.

Книга соответствует типовой программе по информатике для высших учебных заведений. Отличительной особенностью публикации является изложение основных принципов, идей, исторического аспекта излагаемых вопросов, обзоров по программным продуктам и аппаратным средствам, толкование терминов. Такой подход позволяет сохранить актуальность изученного материала в течение нескольких лет.

В книге в компактной форме даны основные понятия информатики, рассмотрены арифметические и логические основы работы ЭВМ, принцип действия важнейших устройств ЭВМ. Дано представление о локальных и глобальных сетях, описана организация данных в ЭВМ, методы сжатия информации, помехоустойчивого кодирования. Дано понятие о вирусах и антивирусных программах. Рассмотрены основные понятия криптографии,

стеганографии. Заметный акцент в книге сделан на изложение вопросов

защиты информации.

ISBN 978-5-91359-158-6

© Алексеев А.П., 2015

 

© СОЛОН-Пресс, 2015

Введение 3

__________________________________________________________________________________

Посвящается 100-летию со дня рождения отцаАлексеева Петра Андреевича

Введение

Все должно быть изложено так просто, как только возможно, но не проще.

А. Эйнштейн

Современный период развития цивилизации характеризуется тем, что человечество переходит от индустриального общества к информационному обществу. Основным перерабатываемым «сырьём» становится информация. Труд современников делается в меньшей степени физическим и в большей степени интеллектуальным. В наиболее развитых странах производство информации и разработка информационных технологий стали одними из самых прибыльных и стремительно растущих отраслей.

В мире накоплен громадный объем информации, но большинство людей не в состоянии в полном мере воспользоваться этим благом в силу ограниченности своих психофизических возможностей и неумения применять новые информационные технологии обработки информации. Самыми мощными усилителями интеллектуальных способностей человека за всю историю развития цивилизации становятся компьютер и глобальные сети, объединяющие множество компьютеров.

Стремительное развитие прогресса в области создания программных и аппаратных средств приводит к тому, что компьютеры и программы быстро морально устаревают. Пользователь ещё не успевает освоить и половины возможностей практически новой программы, а уже на рынке появляются её следующие более совершенные модификации.

И все же в круговерти быстро меняющихся картин есть устойчивые моменты, которые являются основой, фундаментом многих процессов, трамплином, с помощью которого можно быстро достичь новых высот.

4 Введение

__________________________________________________________________________________

Неизменной является История. Исторический аспект каждого изучаемого вопроса позволяет увидеть тенденцию развития, экстраполировать (перенести) сегодняшнее положение дел на Будущее.

Основное внимание в книге автор уделил идеям и принципам — они самые живучие в этом быстро меняющемся мире вычислительной техники.

Важными теоретическими аспектами информатики являются арифметические и логические основы работы ЭВМ, алгебра логики, понятия о системах счисления. На этих вопросах базируются многие разделы информатики (например, методы архивации, помехоустойчивого кодирования, QRкоды, криптографиия, стеганография).

Обилие терминов (их англоязычная основа), неоднозначность их трактовки приводит к тому, что пользователь, начинающий изучать информатику, теряется в джунглях туманных понятий. Автор стремился уделить серьёзное внимание формулировке возможно точных определений (терми-

нологии).

При работе над книгой автор пытался из большого объёма информации по рассматриваемым вопросам отобрать самое главное, основное. Это должно облегчить студентам сделать первый шаг в освоении бурно развивающейся дисциплины.

Очевидно, что основным инструментом при изучении информатики является вычислительная машина или устройство, содержащее процессор. По этой причине значительное внимание в публикации уделяется конструк-

ции ЭВМ.

Рассматриваемый материал был многократно апробирован на лекциях, семинарах, конференциях, лабораторных и практических занятиях, многочисленных курсах и в научно-исследовательских работах. Многие разделы книги были опубликованы в научно-технических журналах. Книга четырежды переиздавалась в центральных издательствах [12, 28, 29, 30], рецензировалась ведущими специалистами России, получено множество положительных отзывов.

Тем не менее, автор хорошо понимает, что досадные ошибки и неточности неизбежны в любой работе. Критические замечания и пожелания просим направлять по адресам:

apa_ivt@rambler.ru ICQ 52690147

Основные понятия об информации и информатике 5

__________________________________________________________________________________

1.Основные понятия

Вданном разделе даны определения понятиям «информация», «информатика», «информационные технологии», рассмотрены этапы развития вычислительной техники, сферы ее использования, отмечены основные вехи создания Интернета.

1.1.Основные понятия об информации

иинформатике

Два часа убито, информации – полбита.

Информация наряду с материей и энергией является первичным понятием нашего материального мира. Дать строгое исчерпывающее определение этому термину через другие, более простые понятия, сложно. Это понятие остается одним из самых дискуссионных в науке. Тем не менее, существует несколько определений понятия «информация». Приведем одно из них.

Информация — это совокупность каких-либо сведений, данных, передаваемых устно (в форме речи), письменно (в виде текста, таблиц, рисунков, чертежей, схем, условных обозначений) либо другим способом (например, с помощью звуковых или световых сигналов, электрических и нервных импульсов, запахов, вкусовых ощущений, перепадов давления или температуры и т. д.).

В середине ХХ века термин «информация» стал общенаучным понятием. Этот термин используется для описания процессов обмена сведениями между людьми, человеком и автоматом (например, электронной вычислительной машиной), автоматом и автоматом. Обмен сигналами в животном и растительном мире, передача наследственных признаков от клетки к клетке, от организма к организму также описываются с помощью этого термина.

Теоретические и практические вопросы, относящиеся к информации, изучает информатика.

Информатика — наука, изучающая структуру и свойства информации, а также вопросы, связанные с ее сбором, хранением, поиском, передачей, преобразованием, распространением и использованием в различных сферах человеческой деятельности.

Современная информатика коренным образом меняет не только сферу материального производства, но и сферу духовной жизни.

6 Основные понятия об информации и информатике

__________________________________________________________________________________

Пристальное внимание к информатике связано с бурным ростом объема человеческих знаний, который порой называют «информационным взрывом».

Колоссальный объем информации циркулирует и хранится в глобальной сети Интернет. Человечеством накоплен большой объем информации, обработать которую отдельному человеку вручную затруднительно в силу своих ограниченных психофизических возможностей. Эффективным инструментом обработки большого объема информации является электронная вычислительная машина (ЭВМ).

Различают две формы представления информации — непрерывную (аналоговую) и прерывистую (цифровую, дискретную). Непрерывная форма характеризует процесс, который не имеет перерывов и теоретически может изменяться в любой момент времени и на любую величину (например, речь человека, музыкальное произведение). Цифровой сигнал может изменяться лишь в определенные моменты времени и принимать лишь заранее обусловленные значения (например, только значения напряжений 0 и 3,5 В). Моменты возможного изменения уровня цифрового сигнала задает тактовый генератор конкретного цифрового устройства.

Для преобразования аналогового сигнала в цифровой сигнал требуется провести дискретизацию непрерывного сигнала во времени, квантование по уровню, а затем кодирование отобранных значений.

Дискретизация — замена непрерывного (аналогового) сигнала последовательностью отдельных во времени отсчетов этого сигнала [1].

На рисунке схематично показан процесс преобразования аналогового сигнала в цифровой сигнал. Цифровой сигнал в данном случае может принимать лишь пять различных уровней. Естественно, что качество такого преобразования невысокое. Из рисунка видно, что изменение цифрового сигнала возможно лишь в некоторые моменты времени (в данном случае этих моментов одиннадцать).

Основные понятия об информации и информатике 7

__________________________________________________________________________________

После такого преобразования непрерывный сигнал представляют последовательностью чисел. Показанный на рисунке непрерывный сигнал заменяется числами 2-3-4-4-4-3-2-2-3-4-4. Десятичная система счисления в рассматриваемом примере использована лишь для большей наглядности. Фактически аналоговый сигнал преобразуют в последовательность единиц и нулей. Результаты данного преобразования можно представить таблицей:

Время

Десятичные

Двоичные

числа

числа

 

t1

2

0010

t2

3

0011

t3

4

0100

t4

4

0100

t5

4

0100

t6

3

0011

t7

2

0010

t8

2

0010

t9

3

0011

t10

4

0100

t11

4

0100

Здесь цифровые сигналы представлены четырьмя разрядами двоичных чисел. Очевидно, что, чем больше разрядов у двоичных чисел (то есть чем больше число уровней квантования) и чем чаще во времени осуществляются отсчеты (выборки), тем точнее будет преобразован непрерывный сигнал в цифровой.

Образное представление о качестве оцифрованного сигнала дают кинофильмы, снятые с разной скоростью. Первые немые фильмы были сняты с частотой 16 кадров в секунду. Из-за низкой частоты съемки некоторые фазы движения объектов терялись, и перемещение персонажей на экране становилось комичным, дёрганным. Переход на частоту 24 кадров в секунду сняло эту проблему, движение стало плавным.

8 Основные понятия об информации и информатике

__________________________________________________________________________________

Предыдущий рисунок показывает, как влияет частота дискретизации аналого-цифрового преобразования на качество оцифрованного сигнала. В нижней части диаграмм показан исходный аналоговый сигнал (синусоида частотой 1 кГц). В верхней части рисунков изображен сигнал после двойного преобразования при разных значениях частоты дискретизации. В данном случае аналоговый сигнал был вначале преобразован в цифровой, а затем цифровой сигнал обратно конвертирован в аналоговый. Рисунки отличаются использованной частотой дискретизации. В первом случае частота дискретизации составляла 8 кГц, во втором – 32 кГц. Из рисунка видно, что с ростом частоты дискретизации качество преобразования улучшается. На качество цифрового сигнала сильно влияет также его разрядность.

Первое представление об аналоговом и цифровом способах хранения

ираспространения информации можно получить, рассматривая два способа записи звуковых сигналов: аналоговую и цифровую аудиозаписи.

При аналоговой аудиозаписи непрерывный электрический сигнал, формируемый источником звука на выходе микрофона, с помощью магнитной головки наносится на движущуюся магнитную ленту. Недостатком аналогового способа обработки информации является то, что копия бывает всегда хуже оригинала.

При цифровой аудиозаписи используется процесс выборки, заключающийся в периодическом измерении уровня (громкости, амплитуды) аналогового звукового сигнала (например, поступающего с выхода микрофона)

ипревращении полученного значения в последовательность двоичных чисел. Для преобразования аналогового сигнала в цифровой используется специальный конвертор, называемый аналогово-цифровой преобразователь (АЦП). Сигнал на выходе АЦП представляет собой последовательность двоичных чисел, которая может быть обработана компьютером. Обратная конверсия цифрового сигнала в непрерывный сигнал осуществляется с помощью цифроаналогового преобразователя (ЦАП).

Качество аналогово-цифрового преобразования характеризует параметр, называемый разрешением. Разрешение — это количество уровней квантования, используемых для замены непрерывного аналогового сигнала цифровым сигналом. Восьмиразрядная выборка позволяет получить только

Основные понятия об информации и информатике 9

__________________________________________________________________________________

256 различных уровней квантования цифрового сигнала, а шестнадцатиразрядная выборка — 65 536 уровней.

Еще один показатель качества трансформации непрерывного сигнала в цифровой сигнал — это частота дискретизации — количество преобразований аналог-цифра (выборок), производимое устройством в одну секунду. Этот показатель измеряют килогерцами (килогерц — тысяча выборок в секунду). Типичное значение частоты дискретизации современных лазерных

(оптических) аудиодисков — 44,1 кГц.

На рисунке показана структура лазерного аудиодиска. Все звуки преобразованы в последовательность единиц и нулей, которые на диске выглядят как выступы и впадины. При этом копию можно получить практически такого же качества, как и оригинал.

С позиции каждого отдельного человека количество информации, содержащееся в каком-либо

сообщении, — субъективная величина.

Объективная количественная мера информации может быть введена на основе вероятностной трактовки информационного обмена.

Этот способ измерения количества информации впервые предложил в 1948 г. К. Шеннон [2]. В соответствии с идеями К. Шеннона, информация — это сведения, уменьшающие неопределенность (энтропию), существовавшую до их получения.

Наименьшей единицей информации является бит (от англ. binary digit — двоичный разряд). Сообщение о том, что произошло одно из двух возможных равновероятных событий, дает получателю один бит информации.

Один бит информации получает человек, когда он узнает, опаздывает с прибытием нужный ему поезд или нет, был ночью мороз или нет, присутствует на лекции студент Иванов или нет и т. д.

Более крупная единица информации — байт — равна 8 бит. Проверка присутствия или отсутствия на лекции 24 студентов дает лектору три байта информации. Еще более крупная единица информации — 1 Кбайт — равна 1024 байтам. Далее — 1 Мбайт равен 1024 Кбайтам, 1 Гбайт равен 1024 Мбайтам, 1 Тбайт равен 1024 Гбайтам, а 1 Пбайт равен 1024 Тбайт.

Перечисленные единицы измерения информации произносятся так: Кбайт — килобайт, Мбайт — мегабайт, Гбайт — гигабайт, Тбайт —

терабайт, Пбайт — петабайт.

10 Основные понятия теории информации

__________________________________________________________________________________

1.2. Основные понятия теории информации

Знаки несут информацию только для получателя, способного их распознать.

Теория информации – раздел математики, исследующий процесс хранения, преобразования и передачи информации. Теория информации базируется на фундаментальной работе американского инженера и математика Клода Элвуда Шеннона [2], и она тесно сопряжена со статистической теорией связи.

Согласно теории информации, количество полученных сведений следует рассматривать с учетом понятия неопределенности состояния системы, например, неопределенность состояния системы связи. Вместо термина «неопределенность состояния системы» часто используют эквивалентный тер-

мин - «энтропия системы».

Под неопределенностью состояния системы связи понимается тот факт, что на приемной стороне получатель информации не знает, какое сообщение пошлет отправитель информации, который находится на передающей стороне системы связи. Лишь после приема сообщения (букв, цифр, символов, звуков, изображения и т.д.) у получателя уменьшается неосведомленность относительно содержания передаваемого сообщения. Иначе говорят: полученная информация уменьшает энтропию системы.

Рассмотрим основные понятия, которые используются в теории информации [1].

Сообщение – это совокупность знаков или первичных сигналов, отображающих ту или иную информацию. Например, текст электронного письма представляет собой совокупность таких знаков, как буквы, цифры, знаки препинания, специальные символы. Примерами сообщений являются: текст телеграммы, текст электронного письма, SMS, MMS данные на выходе ЭВМ, речь, музыка, рисунок, фотография, запись в блоге и т.п.

Передача сообщений на расстояние осуществляется с помощью како- го-либо материального носителя (бумаги, магнитных дисков, микросхем памяти и т.п.) или физического процесса (звуковых, световых или электромагнитных волн и т.п.). Таким образом, информация передается путем обмена между отправителем и получателем материей (бумага, фотоплёнка, лента) или энергией (электромагнитные волны). Физический процесс, несущий передаваемое сообщение, называется сигналом.

Сообщения могут быть функциями времени (информация представляется в виде первичных сигналов, которыми являются: музыка, речь, видеоизображение, показания датчиков). Сообщения могут не являться функциями