Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ИТУ-ответы.doc
Скачиваний:
9
Добавлен:
16.04.2019
Размер:
1.44 Mб
Скачать

17. Основные этапы развития научных представлений об информации.

Считается, что одним из первых понятие информации в научный оборот было введено Р.Фишером в 1921 г. применительно к решению задач статистике.

Р.Фишером была предложена мера (среднего) количества информации, относительно неизвестного параметра, содержащейся в одном наблюдении. В круг интересов Р.Фишера входили и вопросы генетической теории эволюции, также непосредственно связанные с информацией .

Основы теории информации, как самостоятельного научного направления были изложены в статье «Математическая теория связи» (1948 г.) выдающегося американского ученого и инженера К.Шеннона (1916-2001). Эта статья дала толчок интенсивному развитию математической теории передачи информации, углубленным исследованиям вопросов ее количественного измерения. Методы данной теории позволили определять информационные характеристики конкретных видов сообщений (письменной и устной речи, фотографических и телевизионных изображений и пр.).

Необходимо отметить, что работа Шеннона базировалась на трудах многих ученых, работающих в этой и смежных областях.

Котельников работал над совершенствованием методов радиоприема, разработкой методов борьбы с помехами. Теорема Котельникова, на которой построен принцип действия электронных машин, телевидения, систем связи, была сформулирована еще в 1933 г., до возникновения современной теории информации. Согласно этой теоремы максимальное число различных элементарных сигналов, которые можно передать по линии связи за единицу времени, является некоторой технической характеристикой линии, которую нельзя изменить, не внося изменений в саму линию. Данный вывод играет основную роль во всех применениях теории информации к вопросу о передаче непрерывных сигналов. Клод Шеннон, ссылался на его работу.

А.Н.Колмогоров считается одним из крупнейших математиков ХХ столетия. Он был одним из первых российских ученых, осознавших значение работ К.Шеннона по теории информации. Он обобщил и применил понятие энтропии в ряде областей математики, создав несколько новых научных математических направлений. В последние годы своей творческой деятельности он работал над созданием алгоритмических основ теории информации и теории вероятностей.

Исторически первые шаги к введению понятия энтропии как меры степени неопределенности сообщений были сделаны в 1928 г. американским инженером-связистом Р.Хартли, предложившим за отправную точку для информационной оценки события принимать его неопределенность и количественно характеризовать степень неопределенности события с n различными исходами числом log n.

Существует особая, очень тесная связь между теорий информации и другой важнейшей наукой, сформировавшейся в ХХ в., – кибернетикой.

В том же 1948 г., когда была опубликована знаменитая статья Шеннона, вышла в свет книга американского ученого Норберта Винера (1894-1964) «Кибернетика, или связь в животном и машине», в которой он обобщил общие принципы построения и работы любых управляющих систем, показал ключевую роль информации в управлении .

Основная идея книги – подобие процессов управления и связи в технических, биологических и социальных (организационных) системах. Эти процессы по своей природе прежде всего являются процессами передачи, хранения и переработки информации, т.е. различных сигналов, сообщений, сведений. Отсюда мысль о возможности создания общей для систем любого класса теории управления.

Одной из главных задач теории информации является повышение помехоустойчивости передачи сообщений. Для этого разрабатываются специальные методы кодирования. Возникло даже новое большое направление – теория кодирования, которое некоторые специалисты считают самостоятельной научной дисциплиной. Другие же полагают, что к уже началу 70-х годов ХХ в. сама классическая теория информации свелась в первую очередь к теории кодирования.

Примерно в это время, в 40-50 гг. ХХ в., параллельно с кибернетикой и теорией информации начала формироваться и еще одна наука, получившая в англоязычных странах название computer science (наука о компьютерной технике).

Считается, что чуть позже, в 60-х гг. во Франции для обозначения области, занимающейся автоматизированной обработкой информации с помощью электронных вычислительных машин, стали использовать термин «информатика» (Informatique), образованный объединением слов Information и Automatique (информация и автоматизация) .

В некоторых учебниках можно прочитать, что слово «информатика» появилось в русском языке в 70-х годах ХХ в. и позаимствовано из французского. На наш взгляд это случилось несколько позже. Широкое распространение этот термин получил в период массового внедрения персональных компьютеров в 80-х гг. Решение об организации нового отделения информатики, вычислительной техники и автоматизации в Академии наук СССР было принято в 1983 году. Вскоре были введены одноименные предметы в школьные и вузовские программы (кафедра информатики ГУУ начала работать в самом конце 80-х). Примерно в это же время абитуриенты начали сдавать вступительный экзамен по информатике.