- •51.1. Понятие системы счисления. Позиционные и непозиционные системы счисления. Методы перевода чисел из одной системы счисления в другую.
- •52.1 Представление чисел с фиксированной и плавающей запятой. Диапазон и точность представления
- •52.2 Типы звеньев данных. Понятие звена данных.
- •52.3 Системы искусственного интеллекта. Методы представлениязнаний. Рассужденияизадачи.
- •53.1 Выполнение операции алгебраического сложения с плавающей запятой
- •53.2 Локальные вычислительные сети. Особенности. Основные распространенные протоколы, методы доступа
- •53.3 Определение базы данных. Уровни представления данных, принцип независимости данных. Схема базы данных
- •54.1 Умножение чисел со старших разрядов в прямом коде
- •Умножение с младших разрядов в дополнительном коде
- •Умножение со старших разрядов в дополнительном коде
- •55.1 Методы выполнения операции деления.
- •2 Деление двоичных чисел с фиксированной запятой
- •2.8. Деление двоичных чисел с плавающей запятой
- •55.2 Язык программирования php. Синтаксис. Основные операторы.
- •56.1 Основные положения и законы алгебры логики
- •56.2 Dhtml. JavaScript. Возможности и области применения
- •2. Моделированиеэкспоненциальнойслучайнойвеличины
- •1. Алгоритм реализации датчика дискретной с.В.
- •2. Пуассоновская с.В
- •58.1.Минимизация логической функции.
- •59.1 Синтез комбинационных логических схем в различных базисах.
- •59.2 Интерфейс программного обмена данными. Структура системной шины.
- •59.3. Реляционная алгебра. Sql
- •60.1.Основные характеристики и параметры интегральных логических элементов. Виды интегральных схем по функциональному назначению.
- •Итнернет технологии
- •2.1 Как работают механизмы поиска
- •60.3 Проектирование реляционной бд, функциональные зависимости, декомпозиция отношений, нормальные формы.
- •62.1 Законы Кирхгофа и преобразование электрических цепей на их основе.
- •63. 1 Электрические источники вторичного питания.
- •Трансформаторный (сетевой) источник питания
- •Габариты трансформатора
- •Достоинства трансформаторных бп
- •Недостатки трансформаторных бп
- •Импульсный источник питания
- •Достоинства импульсных бп
- •Недостатки импульсных бп
- •68.3 Понятие и принципы построения математической модели, параметры и ограничения. Задачи математического программирования, классификация.
- •69.1Аналого-цифровые преобразователи.
- •70.1Цифро-аналоговые преобразователи.
- •70.2 Логические единицы работы многозадачных операционных систем и их использование
- •71.1Источники опорного напряжения и тока.
- •Ион на полевых транзисторах
- •72.3 Общие положения стандарта шифрования данных гост 28147-89 и режим простой замены в стандарте шифрования данных гост 28147-89.
- •73.1 Принципы конвейерной обработки информации в эвм.
- •73.2. Способы адресации и их использование в ассемблерных программах.
- •2. Непосредственная адресация
- •73.3 Понятие политики безопасности: общие положения, аксиомы защищённых систем, понятия доступа и монитора безопасности.
- •1 Человек-пользователь воспринимает объекты и получает информацию о состоянии ас через те субъекты, которыми он управляет и которые отображают информацию.
- •2 Угрозы компонентам ас исходят от субъекта, как активного компонента, изменяющего состояние объектов в ас.
- •3 Субъекты могут влиять друг на друга через изменяемые ими объекты, связанные с другими субъектами, порождая субъекты, представляющие угрозу для безопасности информации или работоспособности системы.
- •74.1Организация памяти эвм. Горизонтальное и вертикальное разбиение. Расслоение обращений. Организация памяти эвм. Горизонтальное и вертикальное разбиение памяти. Расслоение обращений.
- •74.2 Сравнение программных возможностей современных операционных систем ( Windows, Unix).
- •По удобству использования и наличию особых режимов
- •Вопрос 1
- •Вопрос 2
- •Понятие энтропии Энтропия как мера неопределенности
- •Свойства энтропии
- •75.1 Подходы к организации эвм. Эвм, управляемые данными. Эвм, управляемые запросами.
- •Методика построения помехоустойчивых кодов. Информационный предел избыточности
- •1.1. Принципы помехоустойчивого кодирования
- •761 Организация ввода-вывода информации в эвм. Программный обмен, обмен через прерывания, режим прямого доступа к памяти.
- •Организация ввода/вывода информации в эвм. Программный обмен, обмен через прерывания, режим прямого доступа к памяти.
- •Глава II
- •11.1. Проблемы организации систем ввода-вывода
- •11.2. Прямой доступ к памяти
- •9.16. Принципы организации системы прерывания программ.
- •76.2 Динамические структуры данных. Основные виды, способы построения.
- •76.3 Системный анализ, определение и этапы. Сущность системного подхода и его применение при проектировании асоиу.
- •2 Системный анализ. Определение и этапы.
- •77.1 История развития и современное состояние в области микропроцессорных систем.
- •77.2 Стандартные и структурированные типы данных.
- •77.3 Математическое описание объектов управления. Цель и задача управления. Принцип отрицательной обратной связи.
- •2.1. Математические методы построения оптимальных и адаптивных систем управления
- •2.1.1. Математическое описание объектов управления
- •2.1.2. Цель и задача управления
- •2.1.3. Задача оптимального управления и критерии качества
- •78.1 (Он же 80.1) Организация микроЭвм на базе микропрограммируемого микропроцессорного комплекта, типовые циклы функционирования.
- •78.2 Жизненный цикл программных средств. Этапы разработки программного обеспечения.
- •Программное обеспечение
- •Прог. Комплекс Документы
- •78. 3 Критерий качества. Методы решения задач оптимального управления
- •79.2 Нисходящее проектирование алгоритмов на примере моделирования арифметических операций сложения, вычитания, с плавающей запятой.
- •79.3 Понятия управляемости, достижимости и наблюдаемости динамических систем.
- •80.1 Организация микроЭвм на базе микропрограммируемого микропроцессорного комплекта, типовые циклы функционирования.
- •80.2 Восходящий метод проектирования алгоритмов и программ. Спроектировать схему универсального алгоритма перевода чисел из любой системы счисления в любую другую.
- •80.3 Методология структурного проектирования sadt.
Понятие энтропии Энтропия как мера неопределенности
Подойдем к описанию случайных событий несколько с иной стороны. То, что событие случайно, означает отсутствие полной уверенности в его наступлении, что, в свою очередь, создает неопределенностьв исходах опытов, связанных с данным событием. Безусловно,степень неопределенностиразлична для разных ситуаций. Например, если опыт состоит в определении возраста случайно выбранного студента 1-го курса дневного отделения вуза, то с большой долей уверенности можно утверждать, что он окажется менее 30 лет; хотя по положению на дневном отделении могут обучаться лица в возрасте до 35 лет, чаще всего очно учатся выпускники школ ближайших нескольких выпусков. Гораздо меньшую определенность имеет аналогичный опыт, если проверяется, будет ли возраст произвольно выбранного студента меньше 20 лет. Для практики важно иметь возможность произвестичисленную оценкунеопределенности разных опытов. Попробуем ввести такую количественную меру неопределенности.
Начнем с простой ситуации, когда опыт имеет nравновероятных исходов. Очевидно, что неопределенность каждого из них зависит отn, т.е.
неопределенность = f(n)
Можно указать некоторые свойства этой функции:
f(1)=0, поскольку приn=1 исход опыта не является случайным и, следовательно, неопределенность отсутствует;
f(n) возрастает с ростомn, т.к. ввиду большого числа возможных исходов предсказание результата опыта становится весьма затруднительным.
Для определения явного вида функции f(n) рассмотрим два независимых опытаAиB, с количествами равновероятных исходов, соответственноnAиnB. Рассмотрим сложный опытC, который состоит в одновременном выполнении опытовAиB. Число возможных исходов опыта С равноnAnB, причем, все они равновероятны. Очевидно, неопределенность исхода такого опыта будет больше неопределенности опытаA, поскольку к ней добавляется неопределенностьB. Естественно допустить, чтомера неопределенности C равна сумме неопределенностей опытов A и B, т.е. неопределенностьаддитивна:
(0.5)
Теперь можно задуматься о том, каким может быть явный вид функции f(n), чтобы он удовлетворял свойствам (1) и (2) и соотношению ( 0 .5)? Легко увидеть, что такому набору свойств удовлетворяет функцияlog(n), причем, можно показать, что онаединственнаяиз всех возможных классов функций. Таким образом:
за меру неопределенности опыта с nравновероятными исходами можно принять числоlog(n).
Следует заметить, что выбор основания логарифма в данном случае значения не имеет, поскольку в силу известной формулы перехода от одного основания логарифма к другому
logbn=logbalogan,
переход к другому основанию состоит во введении одинакового для обеих частей выражения ( 0 .5) постоянного множителя logba, что равносильно изменениюмасштаба(т.е. размера единицы) измерения неопределенности. Поскольку это так, мы имеет возможность выбратьудобноедля нас (из каких-то дополнительных соображений) основание логарифма. Таким удобным основанием оказывается 2, поскольку в этом случае за единицу измерения принимается неопределенность, содержащаяся в опыте, имеющем лишьдваравновероятных исхода, которые можно обозначить, например, ИСТИНА (True) и ЛОЖЬ (False) и использовать для анализа таких событий аппарат математической логики.
Единица измерения неопределенности при двух возможных исходах опыта называется бит.
(Название битпроисходит от английскогоbinarydigit, что в дословном переводе означает «двоичный разряд» или «двоичная единица».)
Таким образом, нами установлен явный вид функции, описывающей неопределенность опыта, имеющего nравновероятных исхода:
(0.6)
На основании формул (1.2 п.1.2.1) и ( 0 .6) несложно найти неопределенность, вносимую каждым отдельным исходом в общую. Поскольку исходовnи все они равновероятны (и, следовательно,равнозначны), а общая неопределенность равнаlog2n, из свойства аддитивности неопределенности следует, что неопределенность, вносимая одним исходом составляет
,
где – вероятность любого из отдельных исходов.
Таким образом, неопределенность (обозначим, наконец, ее E), вносимая каждым из равновероятных исходов, равна:
(0.7)
Теперь попробуем обобщить формулу ( 0 .7) на ситуацию, когда исходы опытов не равновероятны, например,p(A1) иp(A2). Тогда:
и
Обобщая это выражение на nнеравновероятныхисходов, получим:
(0.8)
Введенная таким образом величина получила название энтропияопытаA. Вспоминая формулу для среднего значения дискретных случайных величин (1.8 п.1.2.2.), можно сказать, что
энтропия является мерой неопределенности опыта, в котором проявляются случайные события, и равна средней неопределенности всех возможных его исходов.