- •51.1. Понятие системы счисления. Позиционные и непозиционные системы счисления. Методы перевода чисел из одной системы счисления в другую.
- •52.1 Представление чисел с фиксированной и плавающей запятой. Диапазон и точность представления
- •52.2 Типы звеньев данных. Понятие звена данных.
- •52.3 Системы искусственного интеллекта. Методы представлениязнаний. Рассужденияизадачи.
- •53.1 Выполнение операции алгебраического сложения с плавающей запятой
- •53.2 Локальные вычислительные сети. Особенности. Основные распространенные протоколы, методы доступа
- •53.3 Определение базы данных. Уровни представления данных, принцип независимости данных. Схема базы данных
- •54.1 Умножение чисел со старших разрядов в прямом коде
- •Умножение с младших разрядов в дополнительном коде
- •Умножение со старших разрядов в дополнительном коде
- •55.1 Методы выполнения операции деления.
- •2 Деление двоичных чисел с фиксированной запятой
- •2.8. Деление двоичных чисел с плавающей запятой
- •55.2 Язык программирования php. Синтаксис. Основные операторы.
- •56.1 Основные положения и законы алгебры логики
- •56.2 Dhtml. JavaScript. Возможности и области применения
- •2. Моделированиеэкспоненциальнойслучайнойвеличины
- •1. Алгоритм реализации датчика дискретной с.В.
- •2. Пуассоновская с.В
- •58.1.Минимизация логической функции.
- •59.1 Синтез комбинационных логических схем в различных базисах.
- •59.2 Интерфейс программного обмена данными. Структура системной шины.
- •59.3. Реляционная алгебра. Sql
- •60.1.Основные характеристики и параметры интегральных логических элементов. Виды интегральных схем по функциональному назначению.
- •Итнернет технологии
- •2.1 Как работают механизмы поиска
- •60.3 Проектирование реляционной бд, функциональные зависимости, декомпозиция отношений, нормальные формы.
- •62.1 Законы Кирхгофа и преобразование электрических цепей на их основе.
- •63. 1 Электрические источники вторичного питания.
- •Трансформаторный (сетевой) источник питания
- •Габариты трансформатора
- •Достоинства трансформаторных бп
- •Недостатки трансформаторных бп
- •Импульсный источник питания
- •Достоинства импульсных бп
- •Недостатки импульсных бп
- •68.3 Понятие и принципы построения математической модели, параметры и ограничения. Задачи математического программирования, классификация.
- •69.1Аналого-цифровые преобразователи.
- •70.1Цифро-аналоговые преобразователи.
- •70.2 Логические единицы работы многозадачных операционных систем и их использование
- •71.1Источники опорного напряжения и тока.
- •Ион на полевых транзисторах
- •72.3 Общие положения стандарта шифрования данных гост 28147-89 и режим простой замены в стандарте шифрования данных гост 28147-89.
- •73.1 Принципы конвейерной обработки информации в эвм.
- •73.2. Способы адресации и их использование в ассемблерных программах.
- •2. Непосредственная адресация
- •73.3 Понятие политики безопасности: общие положения, аксиомы защищённых систем, понятия доступа и монитора безопасности.
- •1 Человек-пользователь воспринимает объекты и получает информацию о состоянии ас через те субъекты, которыми он управляет и которые отображают информацию.
- •2 Угрозы компонентам ас исходят от субъекта, как активного компонента, изменяющего состояние объектов в ас.
- •3 Субъекты могут влиять друг на друга через изменяемые ими объекты, связанные с другими субъектами, порождая субъекты, представляющие угрозу для безопасности информации или работоспособности системы.
- •74.1Организация памяти эвм. Горизонтальное и вертикальное разбиение. Расслоение обращений. Организация памяти эвм. Горизонтальное и вертикальное разбиение памяти. Расслоение обращений.
- •74.2 Сравнение программных возможностей современных операционных систем ( Windows, Unix).
- •По удобству использования и наличию особых режимов
- •Вопрос 1
- •Вопрос 2
- •Понятие энтропии Энтропия как мера неопределенности
- •Свойства энтропии
- •75.1 Подходы к организации эвм. Эвм, управляемые данными. Эвм, управляемые запросами.
- •Методика построения помехоустойчивых кодов. Информационный предел избыточности
- •1.1. Принципы помехоустойчивого кодирования
- •761 Организация ввода-вывода информации в эвм. Программный обмен, обмен через прерывания, режим прямого доступа к памяти.
- •Организация ввода/вывода информации в эвм. Программный обмен, обмен через прерывания, режим прямого доступа к памяти.
- •Глава II
- •11.1. Проблемы организации систем ввода-вывода
- •11.2. Прямой доступ к памяти
- •9.16. Принципы организации системы прерывания программ.
- •76.2 Динамические структуры данных. Основные виды, способы построения.
- •76.3 Системный анализ, определение и этапы. Сущность системного подхода и его применение при проектировании асоиу.
- •2 Системный анализ. Определение и этапы.
- •77.1 История развития и современное состояние в области микропроцессорных систем.
- •77.2 Стандартные и структурированные типы данных.
- •77.3 Математическое описание объектов управления. Цель и задача управления. Принцип отрицательной обратной связи.
- •2.1. Математические методы построения оптимальных и адаптивных систем управления
- •2.1.1. Математическое описание объектов управления
- •2.1.2. Цель и задача управления
- •2.1.3. Задача оптимального управления и критерии качества
- •78.1 (Он же 80.1) Организация микроЭвм на базе микропрограммируемого микропроцессорного комплекта, типовые циклы функционирования.
- •78.2 Жизненный цикл программных средств. Этапы разработки программного обеспечения.
- •Программное обеспечение
- •Прог. Комплекс Документы
- •78. 3 Критерий качества. Методы решения задач оптимального управления
- •79.2 Нисходящее проектирование алгоритмов на примере моделирования арифметических операций сложения, вычитания, с плавающей запятой.
- •79.3 Понятия управляемости, достижимости и наблюдаемости динамических систем.
- •80.1 Организация микроЭвм на базе микропрограммируемого микропроцессорного комплекта, типовые циклы функционирования.
- •80.2 Восходящий метод проектирования алгоритмов и программ. Спроектировать схему универсального алгоритма перевода чисел из любой системы счисления в любую другую.
- •80.3 Методология структурного проектирования sadt.
Свойства энтропии
Как следует из ( 0 .8), E=0 только в том случае, есликакая-либоизp(Aj)=1. Однако, при этом из (1.4 п.1.2.2.) следует, что все остальные
p(Ai)=0 (ij), т.е. реализуется ситуация, когда один из исходов являетсядостоверным(а событие перестает быть случайным). Во всех остальных случаях, очевидно, что E > 0.
Из аддитивности неопределенностей следует, что и энтропия, как мера неопределенности, должна обладать аддитивностью, т.е. для двух независимыхопытовAиB
E(AB)=E(A)+E(B) (0.9), т.е.
энтропия сложногоопыта, состоящего из нескольких независимых, равнасуммеэнтропий отдельных опытов.
Пусть имеется два опыта с одинаковым числом исходов n, но в одном случае они равновероятны, а в другом – нет. Каково соотношение энтропий опытов?
Примем без доказательства следующее утверждение:
(0.10)
при прочих равных условиях наибольшуюэнтропию имеет опыт сравновероятнымиисходами.
(При необходимости доказательство можно найти, например, в книгах:Яглом А.М., Яглом И.М. [1_11, с.40–43]; Бриллюэн Л.[1_3, с.34–36].)
Другими словами, энтропия максимальнав опытах, где все исходыравновероятны. Здесь усматривается аналогия (имеющая глубинный смысл!) с понятием энтропии, используемой в физике. Впервые понятие энтропии было введено в 1865 г. немецким физиком Рудольфом Клаузиусом как функции состояния термодинамической системы, определяющей направленность самопроизвольных процессов в системе. Клаузиус сформулировалIIначало термодинамики. В частности, он показал, что максимума энтропия достигает при полной разупорядоченности в системе, чему соответствует состояние равновесия. Другими словами, в физике энтропия оказываетсямерой беспорядка в системе. Позднее (в 1872 г.) Людвиг Больцман, развивая статистическую теорию, связал энтропию системы с вероятностью ее состояния, дал статистическое (вероятностное) толкованиеII-му началу термодинамики и, в частности, показал, что вероятность максимальна у полностью разупорядоченной (равновесной) системы, причем, энтропия и термодинамическая вероятность оказались связанными логарифмической зависимостью! Сходство понятий и соотношений между ними в теории информации и статистической термодинамике, как оказалось позднее, имеет глубокий смысл. (Подробнее об этом можно причитать в книгах Л.Бриллюэна [1_3] и Р.Л.Стратоновича [1_8].)
Что дает понятие энтропии для решения практических задач? Рассмотрим одну из них.
Пусть имеются два ящика, в каждом из которых по 12 шаров. В первом– 3 белых, 3 черных и 6 красных;во втором– каждого цвета по 4. Опыты состоят в вытаскивании по одному шару из каждого ящика. Что можно сказать относительно неопределенностей этих опытов? Согласно ( 0 .8) находим энтропии обоих опытов:
Ясно, что E2>E1, т.е. во втором опыте неопределенность исхода выше, что, кстати, иллюстрирует справедливость формулы ( 0 .10).
75.1 Подходы к организации эвм. Эвм, управляемые данными. Эвм, управляемые запросами.
15.9. Концепция ВС[выч. систем] с управлением потоком данных
Существуют трудности, связанные с решением проблемы автоматизации параллельного программирования, необходимой для обеспечения эффективного использования для широкого круга задач матричных (параллельных) ВС, т. е. систем типа ОКМД.
Конвейерные и конвейерно-векторные ВС наибольший эффект дают при реализации специализированных систем с фиксированными алгоритмами, при которых достижима оптимальная для решаемой задачи структура конвейера. В ВС универсального назначения состав позиций конвейера оказывается далеко не оптимальным для каждой данной задачи, к тому же возникают потери времени на коммутацию позиций конвейера под текущую команду.
В таких условиях актуальными являются исследования новых путей построения высокопроизводительных ВС, одними из которых являются ВС с управлением потоком данных (операндов), или, другими словами, потоковые ВС.
В системах с управлением потоками данных предполагается наличие большого числа специализированных операционных блоков для определенных видов операций (сложения, умножения и т. п., отдельных для разных типов данных). Данные снабжаются указателями типа данных (тегами), на основании которых по мере готовности данных (операндов) к обработке (а не в порядке последовательности команд в программе) они загружаются в соответствующие свободные операционные блоки. При достаточном количестве операционных блоков может быть достигнут высокий уровень распараллеливания вычислительного процесса (близкий к «потенциальному параллелизму» программы). К тому же в самих операционных блоках может быть применена конвейерная обработка. Таким образом, создаются условия для реализации высокой производительности системы.
Принципиальное отличие потоковых машин состоит в том, что команды выполняются не в порядке следования команд в тексте программы, а по мере готовности их операндов. Как только будут вычислены операнды команды, она может захватывать свободное операционное устройство и выполнять предписанную ей операцию. В этом случае последовательность, в которой выполняются команды, уже не является детерминированной.
Следуя(55], рассмотрим в качестве примера вычисление на потоковой ВС корней квадратного уравнения
ах^—Ьх+с=0 (при Ь"—4ас>0;
Полагаем, что на вход системы поступают группы данных a,,bi,d и по ним вычисляются корни уравнения. Решение может быть получено с помощью операционных устройств, выполняющих опе рации сложения, вычитания, умножения, возведения в степень, деления и извлечения квадратного корня.
Процесс решения можно представить следующей последовательностью операций:
К0:А\:=2^а,
Kl'•Bl:=b^^[:2(возведение в степень);
K2:C:=i^c,
КЗ;С\:==С^а,
K4:D:=BI-CI,
K5'•DI'.==SQRT(D)(извлечение квадратного корня);
K6:B2:=b+Dl,
K7:B3:=b-D\,
KS:XI:=B2/AI,
К9-.Х2:==ВЗ/А1.
На рис. 15.18 показан граф потока данных, управляющих решением рассматриваемой задачи. Большими кружками обозначены операционные устройства, а маленькими — метки готовности данных. В начальном состоянии процесса готовы все входные данные. Вершины графа активизируются в произвольном порядке при готовности их операндов. Тем не менее в конце концов получается один и тот же результат.
Можно считать, что активизация вершины сопровождается поглощением меток готовности на ее входах. По завершении операции меткой готовности отмечается выходная дуга вершины. Перемещение меток готовности по графу потока данных отображает протекание вычислительного процесса.
Возникает вопрос, как данные и соответствующие команды находят друг друга? Для ответа на него обратимся к рис. 15.19[след.стр.], поясняющему идею процессора, управляемого потоком данных [31, 34]. «Потоковая программа» размещается в массиве ячеек команд. Команда наряду с кодом операции содержит поля, куда заносятся готовые операнды, и поле, содержащее адреса команд, в которые должен быть направлен в качестве операнда результат операции. Кроме того, каждой команде поставлен в соответствие двухразрядный тег (располагаемый в управляющем устройстве), разряды которого устанавливаются в 1 при занесении в тело команды соответствующих операндов. В состоянии тега 11 (оба операнда готовы) инициируется запрос к операционному коммутатору на передачу готовой команды в соответствующее коду операции (и тегу операнда, определяющему тип данных) о щионное устройство. Результат выполнения команды наднепосредственно адресуемыми операндами направляется через командный коммутатор согласно указанным в команде адресам в ячейки команд и помещается в их поля операндов. Далее указанная процедура циклически повторяется, причем управление этим процессом полностью децентрализовано и не нуждается в счетчике команд.
75.2
Объектно-ориентированное программирование.
Понятие класса, Инкапсуляция. Наследование.
Полиморфизм.
Ооп: абстрагирование, инкапсуляция, наследование, полиморфизм.
Объектно-ориентированное программирование (ООП) - парадигма программирования, в которой основными концепциями являются понятия объектов и классов.
Объектно-ориентированное программирование в настоящее время является абсолютным лидером в области прикладного программирования (языки Java, C#, C и др.).
Абстракция данных
Объекты представляют собою упрощенное, идеализированное описание реальных сущностей предметной области. Если соответствующие модели адекватны решаемой задаче, то работать с ними оказывается намного удобнее, чем с низкоуровневым описанием всех возможных свойств и реакций объекта.
Инкапсуляция - это принцип, согласно которому любой класс должен рассматриваться как чёрный ящик - пользователь класса должен видеть и использовать только интерфейсную часть класса (т. е. список декларируемых свойств и методов класса) и не вникать в его внутреннюю реализацию. Поэтому данные принято инкапсулировать в классе таким образом, чтобы доступ к ним по чтению или записи осуществлялся не напрямую, а с помощью методов. Принцип инкапсуляции (теоретически) позволяет минимизировать число связей между классами и, соответственно, упростить независимую реализацию и модификацию классов.
Наследованием называется возможность порождать один класс от другого с сохранением всех свойств и методов класса-предка (прародителя, иногда его называют суперклассом) и добавляя, при необходимости, новые свойства и методы. Набор классов, связанных отношением наследования, называют иерархией. Наследование призвано отобразить такое свойство реального мира, как иерархичность.
Полиморфизмом называют явление, при котором один и тот же программный код (полиморфный код) выполняется по-разному в зависимости от того, объект какого класса используется при вызове данного кода. Полиморфизм обеспечивается тем, что в классе-потомке изменяют реализацию метода класса-предка с обязательным сохранением сигнатуры метода. Это обеспечивает сохранение неизменным интерфейса класса-предка и позволяет осуществить связывание имени метода в коде с разными классами - из объекта какого класса осуществляется вызов, из того класса и берётся метод с данным именем. Такой механизм называется динамическим (или поздним) связыванием - в отличие от статического (раннего) связывания, осуществляемого на этапе компиляции программы.
75.3 Методы эффективного помехоустойчивого кодирования. Общий принцип использования избыточности.
Методы эффективного помехоустойчивого кодирования. Общий принцип использования избыточности.
Бурный рост теории и практики помехоустойчивого кодирования в последнее десятилетие связан в первую очередь с созданием средств телеобработки данных, вычислительных систем и сетей, региональных автоматизированных систем управления, систем автоматизации научных исследований.
Коды, обладающие таким свойством, называют помехоустойчивыми. Они используются как для исправления ошибок (корректирующие коды), так и для их обнаружения.
Примеры блочных кодов: коды Хемминга, коды БЧХ, коды Рида-Соломона.Декодирование сверточных кодов производится, как правило, с помощью алгоритма Витерби.