Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Теория Хартли.docx
Скачиваний:
38
Добавлен:
09.02.2016
Размер:
43.75 Кб
Скачать

Ральф Винтон Лайон Хартли

Ральф Винтон Лайон Хартли — американский учёный-электронщик. Он предложил генератор Хартли, преобразование Хартли и сделал вклад в теорию информации, введя в 1928 логарифмическую меру информации , которая называетсяхартлиевским количеством информации.

Биография

Он получил высшее образование со степенью A.B. (бакалавр искусств) в УниверситетеЮты в 1909. Как стипендиат Родса, он получил степень B.A. (бакалавр искусств) в 1912 истепень B.Sc. (бакалавр наук) в 1913 в Оксфордском университете.

Научная деятельность

После возвращения из Англии, Хартли присоединился к Научно-исследовательскойлаборатории Западной Электрической Компании и принял участие в созданиирадиоприёмника для трансатлантических тестов. В течение Первой мировой войны,Хартли решил проблемы, которые препятствовали развитию направленных искателейзвукового типа. После войны учёный вплотную занялся проблемой передачи информации(в частности звуковой). В течение этого периода он сформулировал закон: «общая сумма информации, которая может быть передана, пропорциональна переданному частотному диапазону и времени передачи».

Хартли был пионером в области Информационной Теории. Он ввёл понятие «информации» (энтропии) как случайной переменной и был первым, кто попытался определить «меру информации». Хартли развивал понятие информации, основанной на «физическом как противопоставлено с психологическими рассмотрениями» для использования в изучении электронных коммуникаций. Фактически, Хартли соответственно определяет это основное понятие. Вместо этого он обращается к «точности ... информации» и «количеству информации».

Информация существует в передаче символов, с символами, имеющими «определённые значения к партийному сообщению». Когда кто-то получает информацию, каждый полученный символ позволяет получателю «устранять возможности», исключая другие возможные символы и их связанные значения.

Точность информации зависит от того, что другие последовательности символа, возможно, были выбраны; мера этих других последовательностей обеспечивает признак количества переданной информации. Таким образом, если бы мы получили 4 различных символа, происходящие с равной частотой, то это представило бы 2 бита.

Хартли награждён премиями за отличия в области науки, этот учёный состоял в американской Ассоциации Продвижения Науки. Хартли принадлежат больше чем 70 патентов (изобретений).

Клод Элвуд Шеннон

Клод Э́лвуд Ше́ннон — американский инженер и математик, его работы являются синтезом математических идей с конкретным анализом чрезвычайно сложных проблем их технической реализации.

Является основателем теории информации, нашедшей применение в современных высокотехнологических системах связи. Шеннон внес огромный вклад в теорию вероятностных схем, теорию автоматов и теорию систем управления — области наук, входящие в понятие «кибернетика». В 1948 году предложил использовать слово «бит» для обозначения наименьшей единицы информации (в статье «Математическая теория связи»).