Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ТИМОИ.pdf
Скачиваний:
445
Добавлен:
08.04.2015
Размер:
2.82 Mб
Скачать

Раздел 2. Методика преподавания ба­ зового курса информатики и ИКТ

Глава 5. Содержание базового курса и мето­ дика изучения основных понятий

5.1. Содержание базового курса информатики и ИКТ

Как уже отмечалось выше, в школьном обучении реализуется концепция непрерывного курса информатики и ИКТ. Курс включает в себя три этапа: пропедевтический, базовый и профильный. Базовый курс информатики со ставляет ядро всего курса, поскольку обеспечивает реали зацию обязательного минимума содержания образования по информатике так, как это отражено в образовательном стандарте.

В настоящее время, когда ещё полностью не завер шен переход на новый государственный стандарт основно го общего образования, базовый курс информатики пре подается в основной школе по двум вариантам.

1 й вариант. Базовый курс изучается в течение двух лет с 8 по 9 класс. Причем в 8 классе курс изучается по 1 часу в неделю, а всего 35 часов; в 9 классе – по 2 часа в неделю, а всего 70 часов.

2 й вариант. Базовый курс изучается с 7 по 9 класс по 1 ча су в неделю, т.е. по 35 часов в год.

Как видно, в обоих вариантах объём всего базового курса составляет 105 часов, как и предусмотрено в базис ном учебном плане основной школы.

197

Примерная программа курса приведена в работе [18] и включает в себя следующие разделы:

1.Информация и информационные процессы (4 часа).

2.Компьютер как универсальное устройство обработки информации (4 часа).

3.Обработка текстовой информации (14 часов).

4.Обработка графической информации (4 часа).

5.Мультимедийные технологии (8 часов).

6.Обработка числовой информации (6 часов).

7.Представление информации (6 часов).

8.Алгоритмы и исполнители (19 часов).

9.Формализация и моделирование (8 часов).

10.Хранение информации (4 часа).

11.Коммуникационные технологии (12 часов).

12.Информационные технологии в обществе (4 часа).

Программа составлена из расчёта того, что учебный год составляет 35 недель и предусматривает резерв учеб ного времени в объёме 11 часов. В каждом разделе име ется перечень практических работ, общее число которых составляет 55. В таблице 5.1 приведено примерное рас пределение часов базового курса по темам и классам для обоих вариантов. Ожидается, что после завершения пере хода на новый образовательный стандарт, базовый курс будет изучаться по второму варианту, т.е. в 7 – 9 классах, а пропедевтический курс будет охватывать 1 – 6 классы. Это позволит сделать курс информатики в школе непрерыв ным.

5.2. Общие подходы к введению понятия ин­ формации

Понятие информации является центральным всего курса информатики, однако, в школьных учебниках подход

198

к её определению неоднозначный. В некоторых учебниках определение информации даже не приводится. Одна из причин такого положения – сложность самого понятия ин формации. Оно относится к числу фундаментальных для всей науки, носит общенаучный, философский характер и является предметом постоянных дискуссий. Из за этого часть ученых считает, что оно неопределяемое. Информа ция является центральным понятием и в кибернетике. Именно кибернетика показала, что в окружающем мире существуют три сущности, три основы мироздания: мате рия, энергия и информация. Человек в ходе своей матери альной деятельности преобразует материальные объекты, затрачивая энергию и используя информацию о том, как это сделать.

В учебниках для школы имеется несколько вариантов определения понятия информации. В учебнике А.Г. Куш ниренко и др. (1996, 2002) говорится, что понятие «инфор мация» первичное и поэтому неопределяемое. Далее идет ссылка на то, что в математике нет строгого определения точки и прямой, что не

199

Таблица 5.1 Примерное распределение часов по темам в базовом курсе «Информатика и ИКТ» [18]

 

 

 

Количество часов

 

Тема

Всего

 

 

7–9

 

8–9

 

классы

 

классы

 

 

 

 

 

 

 

 

 

 

 

7

 

8

 

9

8

9

 

 

 

 

 

 

 

 

 

 

1

Информация и информационные

10

 

 

10

 

 

10

 

процессы

 

 

 

 

 

2

Аппаратные и программные

11

11

 

 

 

 

7

 

средства ИКТ

 

 

 

 

 

3

Кодирование и обработка тек

10

 

 

11

 

 

8

 

стовой информации

 

 

 

 

 

4

Кодирование и обработка число

10

 

 

12

 

 

9

 

вой информации

 

 

 

 

 

 

Кодирование и обработка графи

 

 

 

 

 

 

 

 

5

ческой и мультимедийной ин

12

15

 

 

 

 

 

12

 

формации

 

 

 

 

 

 

 

 

 

Алгоритмизация и основы объ

 

 

 

 

 

 

 

 

6

ектно ориентированного визу

14

 

 

 

 

11

 

16

 

ального программирования

 

 

 

 

 

 

 

 

7

Моделирование и формализация

10

4

 

 

 

6

 

12

8

Хранение, поиск и сортировка

6

 

 

 

 

6

 

7

информации в базах данных

 

 

 

 

 

9

Коммуникационные технологии

13

 

 

 

 

10

 

15

 

Информационная деятельность

 

 

 

 

 

 

 

 

10

человека.

3

3

 

 

 

 

 

3

 

Информационная безопасность

 

 

 

 

 

 

 

 

 

Повторение, резерв времени

6

2

 

2

 

2

1

5

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Всего

105

35

 

35

 

35

35

35

 

 

 

 

 

 

 

 

 

 

мешает нам рисовать треугольники, доказывать теоремы и решать задачи. Однако на это легко возразить – точку можно поставить на листе бумаги острым карандашом и

200

все её увидят, но вот вряд ли аналогично возможно посту пить с информацией. Приведем несколько примеров оп ределения информации в учебной литературе.

Информация – постоянный спутник человека. Это те сведения, которые помогают ориентироваться нам в ок ружающем мире.

В интуитивном, житейском смысле под информацией понимают сведения, знания и т.п., которые кого либо ин тересуют. Чем интереснее сообщение, тем больше оно не сет информации.

Информация – это произвольная последовательность символов, т.е. любое слово.

Информация – это отражение предметного мира с помощью знаков и сигналов.

Информация – это содержание сообщения, сигнала памяти, а также сведения, содержащиеся в сообщении, сигнале, памяти. (Одна тавтология!)

Информация – это знания, сведения, которыми об ладает человек и которые он получает из окружающего мира. (Субъективный подход).

Информация – это содержание последовательности символов (сигналов) из некоторого алфавита. (Кибернети ческий подход.)

Перечень определений довольно обширный, и как же в таком случае поступить учителю? Рассмотрим не сколько методических подходов, используемых учителями для определения понятия информации [1]:

1) Субъективный подход. В этом случае следует ис пользовать метод обучения – катехизическую беседу. Учи тель задает следующую последовательность вопросов, на которые учащиеся могут легко ответить:

Расскажите, откуда вы получаете информацию?

201

Приведите примеры какой либо информации, ко

торую вы получили сегодня.

Если услышите ответ, что утром по радио ученик слышал прогноз погоды, то учителю следует подвести уче ников к выводу: – значит, ты вначале не знал, какая будет погода! Следовательно, получив информацию, ты получил новые знания!

Таким путем можно подвести учеников к пониманию того, что информация для человека – это знания, которые он получает из различных источников. Далее на примерах следует закрепить это определение.

Затем, применяя метод беседы, можно рассмотреть, где эта информация хранится – в памяти человека, в запи сях на бумаге, на магнитных носителях и пр. Таким обра зом, можно подвести учащихся к пониманию внутренней

ивнешней памяти.

2)Если учитель использует кибернетический подход, то следует использовать метод обучения рассказ и сооб щить, как возникла кибернетика, как она породила совре менную информатику, являясь одним из её источников. Кибернетику определяют как науку об общих свойствах процессов управления в живых и неживых системах. Для описания сложных систем в кибернетике используют поня тие (модель) «чёрного ящика». Термины чёрный ящик и кибернетическая система можно считать синонимами. Главные характеристики чёрного ящика – это входная и выходная информация. И если два таких чёрных ящика взаимодействуют между собой, то они делают это только с помощью обмена информацией.

Информация в кибернетических системах передаётся в виде некоторой последовательности сигналов разной природы: акустических, световых, электрических и др.

202

Информационные обмены происходят везде и всюду: ме жду людьми, животными, техническими устройствами. В последовательности передаваемых сигналов закодирован определённый смысл и содержание.

С точки зрения кибернетики, информацией является содержание передаваемых сигналов (символов) из неко торого алфавита. Передача сигналов требует опреде лённых затрат материалов и энергии. Однако содержание сигналов не зависит от этих затрат. В последовательности сигналов закодированы определённые смысловые симво лы, в которых и заключается их содержание. Эти символы могут быть буквами текста какого либо алфавита или це лыми понятиями (например, красный сигнал светофора обозначает для людей «стоять!»). Такую последователь ность сигналов называют сообщением.

Из описанных двух подходов первый можно исполь зовать уже в начальной школе, тогда как второй – в основ ной и старшей школе. При этом необходимо помнить, что введение понятие информации делается не одномомент но – следует постепенно расширять представления детей об информации, периодически возвращаясь к её опреде лению, т.е. использовать метод последовательных при ближений.

5.3. Энтропийный подход к понятию информа­ ции.

Информация и энтропия

Описываемый ниже подход обычно применяют при обучении в вузе, но частично его можно использовать и в профильном обучении в старшей школе. Этот способ вве дения понятия информации является наиболее строгим, поэтому учителю следует с ним ознакомиться. При изло

203

жении данной темы следует использовать межпредмет ные связи: вероятность случайных событий изучается в математике, энтропия – в курсе физики в профильных фи зико математических классах.

Учителю можно рекомендовать следующую после дова тельность изложения:

1)Многие события являются случайными и происхо дят с той или иной вероятностью. На информацию о таких случайных событиях накладываются определённые огра ничения. Случайные события изучаются в статистической физике.

2)Чтобы определить степень неопределённости слу чайного события можно использовать понятие энтропии. Энтропия H вводится как функция, описывающая меру не определённости события, имеющего n равновероятных исходов и вычисляется по формуле:

H = log2 n

Энтропия является мерой неопределённости случай ного события и равна средней вероятности всех возмож ных его исходов. Можно сказать, что энтропия характери зует степень беспорядка в системе. Энтропия измеряется в

битах.

Свойства энтропии:

энтропия сложного события, состоящего из несколь ких независимых событий, равна сумме энтропий от дельных событий;

наибольшую энтропию имеет событие с равноверо ятными исходами.

3)Количество информации численно равно числу вопросов, которые предполагают равновероятные бинар ные варианты ответов, и которые необходимо задать, что

204

бы полностью снять неопределённость о событии в по ставленной задаче.

Связь между количеством информации I в сообще нии о событии и числом равновероятных исходов события n даётся формулой Хартли:

I = log2 n

Таким образом, такое определение понятия инфор мации получает статистический смысл и является опера ционным определением (т.е. устанавливает способ её из мерения).

4) Информация равна убыли энтропии:

I = H1 – H2

При таком подходе информация – это содержание сообщения, понижающего неопределённость совершения некоторого события с неоднозначным исходом. Количест венной мерой информации тогда будет являться убыль связанной с событием энтропии.

В случае равновероятных исходов события информа ция о нем равна логарифму отношения числа возможных исходов до и после получения сообщения о событии.

5)Таким образом, статистическая интерпретация эн тропии связана с недостатком информации о состоянии системы. Наибольшая энтропия у системы с полным бес порядком, и когда наша осведомлённость о её состоянии минимальна. Упорядочение системы (наведение порядка) связано с получением дополнительной информации о сис теме и с уменьшением энтропии.

6)В теории информации энтропия характеризует не определённость в незнании результатов события, которое

205

имеет некоторый набор возможных случайных исходов.

7)Может ли количество информации быть меньше 1 бита? Ответ на бинарный вопрос, то есть требующий отве та или, или (да, нет), может содержать не более 1 бита ин формации; для равновероятных ответов информация бу дет равна 1; для неравновероятных – меньше 1.

8)Объективность информации обусловлена тем, что она не зависит от того, кто и как осуществляет выбор, т.е. она одинакова для любого потребителя. Но ценность ин формации определяет потребитель, поэтому в этом смыс ле она субъективна.

9)В теории информации считается, что информация является мерой нашего незнания чего либо. Как только это знание будет получено, и мы узнаем результат, то инфор мация, связанная с этим событием, исчезает. Состоявшее ся событие не несёт информации, так как пропадает его неопределённость (энтропия становится равной нулю). При этом имеется один исход события и n = 1 , тогда по формуле Хартли получаем I = 0.

10)На бытовом уровне понимания информация свя зана с нашим знанием, что связано с оценкой её смысла, а

втеории информации она связана с нашим незнанием. В этом состоит принципиальное различие в понимании ин формации на бытовом уровне и на научном.

Разумеется, учителю следует понимать, что и при та ком подходе одномоментно ввести понятие информации невозможно – необходимо это делать последовательно, неоднократно возвращаясь к трудным элементам темы. Это следует также из того, что и само понятие энтропии является сложным, фундаментальным общенаучным по нятием.

206

Закреплять полученные знания по данной теме ре комендуется при решении задач №№ 4, 7 (стр. 25), 4, 5 (стр. 260), 3, 4 (стр. 271) из учебника: Семакин И.Г. Инфор матика. Базовый курс. 7–9 классы / И.Г. Семакин, Л.А. За логова, С.В. Русаков, Л.В. Шестакова. – 2 е изд., испр. и доп. – М.: БИНОМ. Лаборатория знаний, 2005. – 390 с.

5.4. Компьютерный подход к измерению ин­ формации

Проблема измерения информации напрямую связа на с проблемой определения понятия информации, т.к. надо сначала выяснить, что мы собираемся измерять, а потом – как это делать. Например, если опираться на ин туитивное определение информации, то невозможно вве сти сколько нибудь логичное определение количества ин формации и единицы её измерения. Какой способ лучше выбрать учителю? Что предлагают методисты для выхода из этого противоречия? В методической литературе и учебниках описано несколько подходов к определению информации и её измерению – это: компьютерный, со держательный (семантический), кибернетический (алфа витный).

При компьютерном подходе к измерению информа ции учитель может сразу перейти к описанию представле ния информации в компьютере в форме двоичного кода. Затем догматически привести утверждение о том, что ко личество информации равно количеству двоичных цифр (битов) в таком двоичном коде. Следует рассказать уча щимся о том, что информацию чаще всего кодируют с по мощью последовательности сигналов двух видов, которые характеризуют два состояния: включено или выключено, намагничено или не намагничено, точка и тире и т.п. При

207