Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Обзорки Информатика.doc
Скачиваний:
17
Добавлен:
27.10.2018
Размер:
2.87 Mб
Скачать

Теория и методика обучения информатике

  1. Информатика в средней школе. Цели и задачи обучения информатике в школе. Структура обучения информатике в средней общеобразовательной школе. Стандарт школьного образования по информатике.

  2. Педагогическая функция курса информатики.

  3. Анализ учебных и методических пособий по информатике и ИКТ. Программное обеспечение по курсу информатики.

  4. Методика введения понятия «Графическая оболочка Windows»

  5. Методика введения понятия «Компьютер»

  6. Методика введения понятия «Алгоритмизация и программирование»

  7. Методика введения понятия «Графические методы»

  8. Методика введения понятия «Процедуры»

  9. Методика введения понятия «Команда выбора IF»

  10. Методика введения понятия «Классы»

  11. Методика введения понятия «Наследование классов»

  12. Методика введения понятия «Полиморфизм»

  13. Методика введения понятия «Команда выбора CASE»

  14. Методика введения понятия «Цикл FOR»

  15. Методика введения понятия «Элемент управления CheckBox»

  16. Методика введения понятия «Элемент управления RadioButton»

  17. Методика введения понятия «Цикл WHILE»

  18. Методика введения понятия «Строки»

  19. Методика введение понятия о табличной величине и способах обработки табличной информации

  20. Методика введение понятия о методах сортировки табличной информации

  21. Методика введения понятия «Файлы»

  22. Методика введения понятия «Технология обработки текстовой информации»

  23. Методика введения понятия «Технология обработки графической информации»

  24. Методика введения понятия «Технология обработки числовой информации»

  25. Методика введения понятия «Технология хранения, поиска и сортировки информации»

  26. Методика введения понятия «Компьютерные коммуникации»

  27. Методика введения понятия «Мультимедийные технологии»

  28. Применение информационных и коммуникационных технологий (ИКТ) в образовании.

  29. Организация контроля знаний учащихся с применением средств ИКТ.

  30. Особенности дистанционного обучения.

1.Понятие информации. Непрерывная и дискретная формы представления информации. Количество и единицы измерения информации. Эвм как универсальное средство обработки информации.

Информация фундаментальная понятие, поэтому определить его исчерпывающим образом через какие-то более простые понятия невозможно. Каждый вариант определения информации обладает некоторой неполнотой. В широком смысле информация – это отражение реального (материального, предметного) мира, выражаемое в виде сигналов и знаков. Сигналы отражают физические (физически - химические) характеристики различных процессов и объектов.

Действия, выполняемые с информацией, называются информационными процессами. Информационные процессы можно разложить на три составляющие: хранение, передачу и обработку информации.

Объединение понятий (информация) и (управление) привело Н. Винера в 40-х гг. XX века к созданию кибернетики, которая, в частности, впервые указала на общность информационных процессов в технике, обществе и живых организмах.

Инфоpматика — это основанная на использовании компьютерной техники дисциплина, изучающая структуру и общие свойства информации, а также закономерности и методы её создания, хранения, поиска, преобразования, передачи и применения в различных сферах человеческой деятельности.

Для обмена информацией с другими людьми человек использует естественные языки (русский, английский, китайский и др.). Основу языка составляет алфавит, или набор символов (знаков), которые человек различает по их начертанию.

Последовательности символов алфавита образуют в соответствии с правилами грамматики основные объекты языка — слова. Правила, согласно которым строятся предложения из слов данного языка, называются синтаксисом.

Наряду с естественными языками были разработаны формальные языки (нотная запись, языки программирования и др.). Основное отличие формальных языков от естественных состоит в наличии не только жестко зафиксированного алфавита, но и строгих правил грамматики и синтаксиса.

Кодирование – это процесс перевода символов одного языка в символы другого языка. Чаще всего в компьютерах осуществляют преобразование символов естественного языка в числа.

Система счисления — это знаковая система, в которой числа записываются по определенным правилам с помощью цифр — символов некоторого алфавита. Например, в десятичной системе для записи числа существует десять всем хорошо известных цифр: 0, 1, 2 и т. д.

Все системы счисления делятся на позиционные и непозиционные. В позиционных системах счисления значение цифры зависит от ее положения в записи числа, а в непозиционных — не зависит. Позиция цифры в числе называется разрядом. Разряд числа возрастает справа налево, от младших разрядов к старшим.

Каждая позиционная система использует опреде­ленный алфавит цифр и основание. В позиционных системах счисления основание системы равно количе­ству цифр (знаков в ее алфавите) и определяет, во сколько раз различаются значения цифр соседних раз­рядов числа,

Наиболее распространенными в настоящее время позиционными системами счисления являются десятичная и двоичная:

Система счисления Основание Алфавит цифр

Десятичная 10 0,1,2,3,4,5,6,7,8,9

Двоичная 2 0,1

Рассмотрим в качестве примера десятичное число 555. Цифра 5 встречается трижды, причем самая пра­вая обозначает пять единиц, вторая справа — пять десятков и, наконец, третья — пять сотен. В развернутой форме запись числа 555 в десятичной системе выглядит следующим образом: 55510 = 5 • 102 + 5 • 101 4- 5 • 10°.

Как видно из примера, число в позиционных систе­мах счисления записывается в виде суммы степеней основания (в данном случае 10), коэффициентами при этом являются цифры данного числа. В двоичной системе основание равно 2, а алфавит состоит из двух цифр (0 и 1). В развернутой форме дво­ичные числа записываются в виде суммы степеней ос­нования 2 с коэффициентами, в качестве которых вы­ступают цифры 0 или 1. Например, развернутая запись двоичного числа 101 а будет иметь вид: 1•22+0•21+1•20.

В настоящее время получили распространение подходы к определению понятия "количество информации", основанные на том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле её новизны или, иначе, уменьшения неопределённости наших знаний об объекте.

Так, американский инженер Р. Хартли (1928 г.) процесс получения информации рассматривает как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определяет как двоичный логарифм N.

Формула Хартли: I = log2N.

Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log2100 » 6,644. То есть сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единиц информации.

Приведем другие примеры равновероятных сообщений:

  • при бросании монеты: "выпала решка", "выпал орел";

  • на странице книги: "количество букв чётное", "количество букв нечётное".

Определим теперь, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.

Для задач такого рода американский учёный Клод Шеннон предложил в 1948г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

Формула Шеннона: I = – ( p1 log2 p1 + p2 log2 p2 + . . . + pN log2 pN ), где pi — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.

Легко заметить, что если вероятности p1, ..., pN равны, то каждая из них равна 1/N, и формула Шеннона превращается в формулу Хартли.

В качестве единицы информации условились принять один бит (англ. bit — binary, digit — двоичная цифра).

Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений. А в вычислительной технике битом называют наименьшую "порцию" памяти, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.

Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица — байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).

Широко используются также ещё более крупные производные единицы информации:

  • 1 Килобайт (Кбайт) = 1024 байт = 210 байт,

  • 1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,

  • 1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.

В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:

  • 1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,

  • 1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.

Информацию можно:

  • создавать;

  • передавать;

  • воспринимать;

  • иcпользовать;

  • запоминать;

  • принимать;

  • копировать;

  • формализовать;

  • распространять;

  • преобразовывать;

  • комбинировать;

  • обрабатывать;

  • делить на части;

  • упрощать;

  • собирать;

  • хранить;

  • искать;

  • измерять;

  • разрушать;

  • и др.

Все эти процессы, связанные с определенными операциями над информацией, называются информационными процессами.

Информация передаётся в виде сообщений от некоторого источника информации к её приёмнику посредством канала связи между ними. Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи. В результате в приёмнике появляется принимаемый сигнал, который декодируется и становится принимаемым сообщением.

В качестве носителя информации в компьютерах используются: магнитная лента, магнитные диски, оптические диски, магнито-оптические диски.