Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

vse-bilearivkty_001

.pdf
Скачиваний:
17
Добавлен:
08.06.2015
Размер:
2.63 Mб
Скачать

1.Сообщения, данные, сигналы свойства информации. (4)

2.Качество информации Формы представления информации.

(6)

3.измерение информации (вероятность и объемный подход) (8)

4.Информационные процессы (сбор, хрипение, передача). (11)

5.Кодирование текстовой информации. (14)

6. Кодирование графической информации.

(15)

7.Системы счисления. Представление числовых данных в Позиционных системах счисления. Перевод чисел п десятичную систему (16)

8.Перевод чисел r системах счисления с разными основаниями(19)

9.Арифметические операции в позиционных системах счисления(21)

10.Перевод отрицательных чисел в двоичной системе.(22)

11.Представление чисел в компьютере.(23)

12.Представление логических данных, основные понятия.(23)

13.Законы логики(24)

14.Базовые логические схемы. Логические элементы ЭВМ.(26)

15.Структуры данных: массивы, деревья, связный список(29)

16.Единицы внешнего хранения данных. Основные группы файлов.(31)

17.Основные этапы развития ЭВМ.(31)

18.Архитектура ЭВМ. Принципы работы вычислительной системы(33)

19.Состав и назначение основных элементов персонального компьютера, их характеристики. Центральный процессор. Системные шины. Слоты расширения.(34)

20.Запоминающие устройства: классификация, принцип работы, основные характеристики.(43)

21.Устройства ввода-вывода данных, их разновидности и основные характеристики.(44)

22.Классификация программного обеспечения. Виды программного обеспечения и их характеристики.(44)

23.Понятие системного программного обеспечения. Операционные системы.(45)

24.Файловая структура операционной системы. Операции с файлами.

25.Служебное программное обеспечение.(45)

26.Технологии обработки текстовой информации. Назначение и основные функции текстовых процессоров.(48)

27. Создание текстовых документов со сложным форматированием, таблицами, рисунками.(54)

28.- Основные функции электронных таблиц;(55)

29.Графические возможности электронных таблиц;(55)

30.Математические и логические функции Электронных таблиц;(56) 31.Электронные таблицы, работа с базой данных.»(58) 32.Электронные презентации. Пути создания презентаций,( 33.Режимы работы с презентацией. Назначение областей структуры,

слайда, заметок.(65)

34.Операции с элементами презентаций и другими приложениями Windows, Свойства слайдов.(65)

35.Общее понятие о базах данных. Основные понятия систем управления базами данных.(66)

36. Модели данных. Основные понятия реляционных баз данных.(67) 37.Реляционная модель данных, создание базы данных;(69) 38.Реляционная модель данных отбор, сортировка, фильтрация

данных;(70)

39.Реляционная модель данных, подготовка запросов и отчетов(71) 40.Моделирование как метод познания.(71)

41.Классификация и формы представления моделей.(71)

42.Методы и технологии моделирования моделей.(72)

43.Информационная модель объекта.(73)

44.Алгоритм и его свойства (74)

45.Способы записи алгоритма(75)

46.Линейный алгоритмпростейшие функции div, mod(79)

47.Алгоритмы разветвляющейся структуры,(79)

48.Алгоритмы циклической структуры.(80)

49.Алгоритмы обработки массивов ,(81)

50.Приближенные методы решения нелинейных уравнений, метод деления отрезка пополам.(82)

51. Приближенные методы решения нелинейных уравнений, метод хорд.(82)

52.Приближенные методы решения нелинейных уравнений, метод касательных.(82)

53.Приближенные методы решения систем уравнений.(83)

54.Сетевые технологии обработки данных. Компоненты вычислительных сетей. (84)

55.Принципы организации и основные топологии вычислительных сетей.(87)

56.Принципы построения сетей.(88)

57.Сервисы Интернета. Средства использования.(89)

58.Структура HTML документа.(93)

59.Основные теги HTML документа.(98)

60.Защита информации в локальных и глобальных компьютерных сетях. Электронная подпись.(105)

61. Классификация компьютерных вирусов.(107)

62.Эволюция языков программирования.(114)

63.Этапы подготовки и решения задач на ЭВМ(119)

64.Компиляция и интерпретация программ(121)

65.Стили программирования.(123)

66.Объектно-ориентированное программирование: характеристики, свойства(128)

1. Сообщения, данные, сигналы, свойства информации

Термин информатика происходит от латинского слова (information)- сведение, расхождение, изложение. Понятие информация является одним из дискуссионных в науке. В обиходе информацией называют сведение, которые кого либо интересуют.

В информатике под информацией подразумеваются сообщения, снижающие степень неопределенности знаний о состоянии предметов или явлений и помогающие решить поставленную задачу.

Сигнал- изменение некоторой физической вылечены во времени, обеспечивающей передачу сообщений.

Мы живем в материальном мире, состоящем из физических тел и физических полей. Для того, чтобы в материальном мире происходит обмен информацией, ее преобразование и передача, должен существовать источник информации, передатчик, канал связи, приемник, получатель информации

Источник

переда

Канал

приемник

информаци

тчик

связи

 

Получатель

информации

Зарегистрированные сигналы – Данные. Для их регистрации с целью хранения и передачи информации необходим некомандный язык

В случаях, когда говорим об автоматизации в виде информации, по средствам каких либо устройств (техники) интересуются сколько символов содержит это сообщение. Применительно к компьютеру. В обработке данных под информацией понимают некоторую последовательность символических обозначений. Каждый новый символ увиличивает информационный объем сообщения

Свойства информации

1)Объективность информациинезависимость от чьего либо мнения, суждения

2)Достоверностьотображение истинного положения дел, отсутствие скрытых ошибок

3)Полезностьоценивается по тем задачам, какие мы можем решить с ее помощью, соответствие запросам

4)Полнотадостаточно для понимания и принятия решений

5)Актуальность или своевременностьважность для настоящего времени

6)Понятностьинформация понятна если она выражена на языке, доступном для понимания

7)Доступностьвозможность ее получения сторонними потребителями

8)Защищенностьневозможность несанкционированного ее использования или изменения

9)Эргономичностьудобство формы или обмена с точки зрения дополнительного потребления

10)Краткость, четкостьотсутствие в информации ненужных сведений

Иногда выделяются такие свойства информации как достоверность, лаконичность, полнота, ценность

Сигнал- это математический носитель информации (данных) которая передается от источника к потребителю

Сигнал:

Аналоговый (непрерывный) – характеризуется некоторой физической величиной, изменяющейся в заданном интервале времени, например, тембр или сила звука

Дискретный (цифровой)- складывается из сцепленного множества информационных элементов. Информация, передаваемая источником – дискретная. Пример, чтение книги

Сообщение- это формула предоставления информации

Пример: текст телеграммы, речь оратора

2. Качество информации. Формы редактирования информации

Качество информации

Качество информации является одним из важнейших параметров для потребителя информации. Оно определяется следующими характеристиками:

1)репрезентативность – правильность отбора информации в целях адекватного отражения источника информации. Например, в целях большей репрезентативности данных о себе абитуриенты стремятся представить в приемную комиссию как можно больше свидетельств, дипломов, удостоверений и другой информации, подтверждающей их высокий уровень подготовки, что учитывается при зачислении в ВУЗ;

2)содержательность – семантическая емкость информации. Рассчитывается как отношение количества семантической информации к ее количеству в геометрической мере. Это характеристика сигнала, про который говорят, что «мыслям в нем тесно, а словам просторно». В целях увеличения содержательности сигнала, например, используют для характеристики успеваемости абитуриента не полный перечень его аттестационных оценок, а средний балл по аттестату;

3)достаточность (полнота) – минимальный, но достаточный состав данных для достижения целей, которые преследует потребитель информации. Эта характеристика похожа на репрезентативность, однако разница состоит в том, что в данном случае учитывается минимальный состав информации, который не мешает принятию решения. Например, абитуриент – золотой медалист может не представлять в приемную комиссию свой аттестат: диплом, подтверждающий получение золотой медали, свидетельствует о полном наборе отличных оценок в аттестате;

4)доступность – простота (или возможность) выполнения процедур получения и преобразования информации. Эта характеристика применима не ко всей информации, а лишь к той, которая не является закрытой. Для обеспечения доступности бумажных документов используются различные средства оргтехники для их хранения, а для облегчения их обработки используются средства вычислительной техники;

5)актуальность – зависит от динамики изменения характеристик информации и определяется сохранением ценности информации для пользователя в момент ее использования. Очевидно, что касается информации, которая используется при зачислении, она актуальна, так как само обучение уже закончилось, и его результаты изменены быть не могут, а, значит, остаются актуальными;

6)своевременность – поступление не позже заранее назначенного срока. Этот параметр также очевиден недавним абитуриентам: опоздание с представлением позитивной информации о себе при поступлении может быть чревато незачислением;

7)точность – степень близости информации к реальному состоянию источника информации. Например, неточной информацией является медицинская справка, в которой отсутствуют данные о перенесенных абитуриентом заболеваниях;

8)достоверность – свойство информации отражать источник информации с необходимой точностью. Эта характеристика вторична относительно точности. В предыдущем примере получаемая информация недостоверна;

9)устойчивость – способность информации реагировать на изменения исходных данных без нарушения необходимой точности.

Формы представления информации

Формы представления информации могут быть различны. Основными из них являются:

символьная (основана на использовании различных символов);

текстовая (текст – это символы, расположенные в определенном порядке);

графическая (различные виды изображений);

световых или звуковых сигналов;

радиоволн;

электрических и нервных импульсов;

магнитных записей;

жестов и мимики;

запахов и вкусовых ощущений;

хромосом, посредством которых передаются по наследству признаки и свойства организмов и т.д.

Текстовая информация, например текст в учебнике, сочинение в тетради, реплика актера в спектакле, прогноз погоды, переданный по радио. Заметим, что в устном общении (личная беседа, разговор по телефону, радиопостановка спектакля) информация может быть представлена только в словесной, текстовой форме.

Числовая информация, например таблица умножения, арифметический пример, в хоккейном матче счет, время прибытия поезда и др. В чистом виде числовая информация встречается редко, разве что на контрольных по математике. Чаще всего используется комбинированная форма представления информации.

Графическая информация: рисунки, схемы, чертежи, фотографии. Такая форма представления информации наиболее доступна, так как сразу передает необходимый образ (модель), а словесная и числовая требуют мысленного воссоздания образа. В то же время графическая форма представления не даёт исчерпывающих разъяснений о передаваемой информации. Поэтому наиболее эффективно сочетание текста, числа и графики.

Например, при решении задач по геометрии мы используем чертеж (графика + пояснительный текст (текст) + числовые расчеты (числа).

Музыкальная (звуковая) информация.

В настоящее время мультимедийная (многосредовая, комбинированная) форма представления информации в вычислительной техники становится основной. Цветная графика сочетается в этих системах со звуком и текстом, с движущимися видеоизображением и трехмерными образами.

3. Измерение информации (вероятный и объемный подход)

Определить понятие "количество информации" довольно сложно. В решении этой проблемы существуют два основных подхода. Исторически они возникли почти одновременно. В конце 40-х годов XX века один из основоположников кибернетики американский математик Клод Шеннон раз-вил вероятностный подход к измерению количества информации, а работы по созданию ЭВМ привели к "объемному" подходу.

Вероятностный подход

Рассмотрим в качестве примера опыт, связанный с бросанием правильной игральной кости, имеющей N граней (наиболее распространенным является случай шестигранной кости: N = 6). Результаты данного опыта могут быть следующие: выпадение грани с одним из следующих знаков: 1,2, ..., N.

Введем в рассмотрение численную величину, измеряющую неопределенность -

энтропию (обозначим ее Н). Величины N и H связаны между собой некоторой функциональной зависимостью:

H=f(N), (1.1)

а сама функция/является возрастающей, неотрицательной и определенной (в рассматриваемом нами примере) для N = 1, 2,..., 6.Рассмотрим процедуру бросания кости более подробно

1.готовимся бросить кость; исход опыта неизвестен, т.е. имеется некоторая неопределенность; обозначим ее H1;

2.кость брошена; информация об исходе данного опыта получена; обозначим количество этой информации через I;

3.обозначим неопределенность данного опыта после его осуществления через Н2. За количество информации, которое получено в ходе осуществления опыта, примем разность неопределенно-стей "до" и "после" опыта:

I=Н1-Н2. (1.2)

Очевидно, что в случае, когда получен конкретный результат, имевшаяся неопределенность снята (H2 = 0), и, таким образом, количество полученной информации совпадает с первоначальной энтропией. Иначе говоря, неопределенность, заключенная в опыте, совпадает с информацией об исходе этого опыта.

Следующим важным моментом является определение вида функции в формуле (1.1). Если варьировать число граней N и число бросаний кости (обозначим эту величину через М), общее число исходов (векторов длины М, состоящих из знаков 1,2,..., М) будет равноN в степени М.

Х=NM. (1.3)

Так, в случае двух бросаний кости с шестью гранями имеем: Х = 62 = 36. Фактически каждый исход Х есть некоторая пара (X1, X2), гдеX1 и X2 -соответственно исходы первого и второго бросаний (общее число таких пар - X).

Ситуацию с бросанием М раз кости можно рассматривать как некую сложную систему, состоящую из независимых друг от друга подсистем - "однократных бросаний кости". Энтропия такой системы в М раз больше, чем энтропия одной системы:

f(6) = М*f(6).

Данную формулу можно распространить и на случай любого N:

f (NM )= M·f(N) (1.4)

Прологарифмируем левую и правую части формулы (1.3): lпХ = М·lпN, М = lпХ1\пМ.

Подставляем полученное для M значение в формулу (1.4):f(X)=ln X/ln M·f(N)

Обозначив через К положительную константу , получим: f(Х) = К·lпХ,

или, с учетом (1.1), Н = К·1п N. Обычно принимают К= 1/ln2.

Таким образом

Н=log2N (1.5)

Это - формула Хартли.

Важным при введении какой-либо величины является вопрос о том, что принимать за единицу ее

измерения. Очевидно, Н будет равно единице при N = 2. Иначе говоря, в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероятных исходов (примером такого опыта может служить бросание монеты при котором возможны два исхода: "орел", "решка"). Такая единица количества информации называется "бит".

Все N исходов рассмотренного выше опыта являются равновероятными и поэтому можно считать, что на "долю" каждого исхода приходится одна N-я часть общей неопределенности

опыта: log2N/N При этом вероятность i-го исхода Рi равняется, очевидно, 1/N. Таким образом,

(1.6)

Та же формула (1.6) принимается за меру энтропии в случае, когда вероятности различных исходов опыта неравновероятны (т.е. Р. могут быть различны). Формула (1.6) называется формулой Шеннона.

В качестве примера определим количество информации, связанное с появлением каждого символа в сообщениях, записанных на русском языке. Будем считать, что русский алфавит состоит из 33 букв и знака "пробел" для разделения слов. По формуле (1.5)

H = log 34 =5 бит.

Однако, в словах русского языка (равно как и в словах других языков) различные буквы встречаются неодинаково часто. По формуле (1.6): Н= 4,72 бит.

Рассмотрим алфавит, состоящий из двух знаков 0 и 1. Если считать, что со знаками 0 и 1 в двоичном алфавите связаны одинаковые вероятности их появления (P(0) = Р(1) = 0,5), то количество информации на один знак при двоичном кодировании будет равно

Н = 1оg22 = 1 бит.

Таким образом, количество информации (в битах), заключенное в двоичном слове, равно чис-лу двоичных знаков в нем.

Объемный подход

В двоичной системе счисления знаки 0 и 1 будем называть битами (от английского выражения Вinагу (двоичные цифры). Отметим, что создатели компьютеров отдают предпочтение именно двоичной системе счисления потому, что в техническом устройстве наиболее просто реализовать два противоположных физических состояния: некоторый физический элемент, имеющий два различных состояния: намагниченность в двух противоположных направлениях; прибор, пропускающий или нет электрический ток; конденсатор, заряженный или незаряженный и т.п. В компьютере бит является наименьшей возможной единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации подсчитывается просто по количеству требуемых для такой записи двоичных символов. При этом, в частности, невозможно нецелое число битов (в отличие от вероятностного подхода).

Для удобства использования введены и более крупные, чем бит, единицы количества информации. Так, двоичное слово из восьми знаков содержит один байт информации, 1024 байта образуют килобайт (кбайт), 1024 килобайта - мегабайт (Мбайт), а 1024 мегабайта -

гигабайт (Гбайт).

Между вероятностным и объемным количеством информации соотношение неоднозначное. Далеко не всякий текст, записанный двоичными символами, допускает измерение объема информа-ции в кибернетическом смысле, но заведомо допускает его в объемном. Далее, если некоторое сообщение допускает измеримость количества информации в обоих смыслах, то они не обязательно совпадают, при этом кибернетическое количество информации не может быть больше объемного.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]