- •Основы информационных технологий
- •Оглавление
- •Предисловие
- •Современные информационные технологии
- •1.1 История, современное состояние и перспективы развития вычислительной техники
- •1.2 Элементная база, архитектура, сетевая компоновка, производительность
- •1.3 Понятие информации. Классификация и виды информационных технологий
- •Основные свойства информационных технологий.
- •1 .4 Операционные системы
- •2 Основные программные средства информационных технологий
- •2.1. Программное обеспечение. Текстовые редакторы, их возможности и назначение
- •2.2. Графические редакторы
- •2.3. Электронные таблицы
- •2.4. Сервисные инструментальные программные средства
- •2.5. Системы математических вычислений MatLab
- •2.6 Система подготовки презентаций
- •3 Сетевые технологии и интернет
- •3.1 Классификация компьютерных сетей
- •3.2 Семиуровневая модель структуры протоколов связи
- •2.3. Взаимодействие компьютеров в сети
- •3.3 Организационная структура Internet
- •3.4 Инструментальные средства создания web-сайтов. Основы web-дизайна
- •3.5 Языки разметки гипертекста html и xml
- •3.6 Скриптовые языки программирования
- •4 Системы управления базами данных
- •4.1. Классификация систем управления базами данных
- •4.2 Модели данных
- •4.3 Моделирование баз данных
- •4.4 Архитектура и функциональные возможности субд. Языковые и программные средства субд
- •4.5 Общая характеристика субд ms Access
- •4.6 Основные объекты ms Access
- •4.7 Основы языка sql
- •Контрольные вопросы
- •5 Защита информации при использовании информационных технологий
- •5.1 Основы информационной безопасности
- •5.2. Методы и средства защиты информации
- •5.3 Защита от несанкционированного доступа к данным
- •5.4 Классы безопасности компьютерных систем
- •5.5 Основные аспекты построения системы информационной безопасности
- •6 Математическое моделирование и численные методы
- •6.1 Математические модели и численные методы решения задач в различных предметных областях
- •6.2 Численное дифференцирование и интегрирование
- •6.2.1 Особенность задачи численного дифференцирования
- •6.2.2 Интерполяционная формула Лагранжа для равноотстоящих узлов
- •6.2.3 Численное дифференцирование на основе интерполяционной формулы Лагранжа
- •6.2.4 Численное дифференцирование на основе интерполяционной формулы Ньютона
- •6.2.5 Постановка задачи численного интегрирования
- •6.2.6 Квадратурные формулы Ньютона-Котеса
- •6.2.7 Формула трапеций
- •6.2.8 Формула Симпсона
- •6.2.9 Оценка точности квадратурных формул
- •6.3 Методы решения обыкновенных дифференциальных уравнений
- •6.3.1 Задача Коши и краевая задача
- •6.3.1.1 Классификация уравнений
- •6.3.1.2 Задача Коши
- •6.3.2 Одношаговые методы решения задачи Коши
- •6.3.2.1 Метод Эйлера
- •6.3.2.2 Модифицированный метод Эйлера
- •6.3.2.3 Метод Рунге-Кутта четвертого порядка
- •6.3.2.4 Погрешность решения и выбор шага
- •6.3.3 Многошаговые методы решения задачи Коши
- •6.3.3.1 Многошаговые методы
- •6.3.3.2 Метод Адамса
- •6.3.3.3 Методы прогноза и коррекции (предиктор-корректор)
- •6.3.3.4 Общая характеристика многошаговых методов
- •6.3.4 Краевая задача и метод стрельбы
- •6.3.4.1 Краевая задача
- •6.3.4.2 Метод стрельбы
- •6.3.4.3 Метод стрельбы для линейного дифференциального уравнения
- •6.4 Решение дифференциальных уравнений в чстных производных
- •6.4.1 Краткие теоретические сведения
- •6.4.2 Классификация уравнений по математической форме
- •6.4.3 Основы метода конечных разностей
- •6.4.3.1 Построение сетки
- •6.4.3.2 Аппроксимация уравнения эллиптического типа
- •6.4.3.3 Аппроксимация уравнения гиперболического типа
- •6.4.3.4 Аппроксимация уравнения параболического типа
- •6.4.3.5 Погрешность решения
- •6.4.4 Основы метода конечных элементов
- •6.4.4.1. Формирование сетки
- •6.4.4.2 Конечно-элементная аппроксимация
- •6.4.4.3 Построение решения
- •6.6 Элементы математической статистики
- •6.6.1 Генеральная совокупность. Выборка. Статистические ряды
- •6.6.2 Графическое изображение вариационных рядов. Эмпирическое распределение
- •6.6.3 Средние величины и показатели вариации
- •6.6.4 Средняя арифметическая и ее свойства
- •6.6.5 Дисперсия и ее свойства. Среднее квадратическое отклонение
- •6.6.6 Коэффициент вариации
- •6.6.7 Структурные средние
- •6.6.8 Законы распределения случайных величин
- •6.6.9 Статистические гипотезы
- •7 Методы оптимизации и системы поддержки принятия решений
- •7.1 Характеристика методов решения задач оптимизации
- •7.1.1 Численные методы безусловной оптимизации нулевого порядка
- •7.1.1.1 Основные определения
- •7.1.1.2 Классификация методов
- •7.1.1.3 Общая характеристика методов нулевого порядка
- •7.1.1.4 Метод прямого поиска (метод Хука-Дживса)
- •7.1.1.5 Метод деформируемого многогранника (метод Нелдера—Мида)
- •7.1.1.6 Метод вращающихся координат (метод Розенброка)
- •7.1.1.7 Метод параллельных касательных (метод Пауэлла)
- •7.1.2 Численные методы безусловной оптимизации первого порядка
- •7.1.2.1 Минимизация функций многих переменных. Основные положения
- •7.1.2.2 Метод наискорейшего спуска
- •7.1.2.3 Метод сопряженных градиентов
- •7.1.3 Численные методы безусловной оптимизации второго порядка
- •7.1.3.1 Особенности методов второго порядка
- •7.1.3.2 Метод Ньютона
- •7.2 Линейное программирование
- •7.2.1 Транспортная задача линейного программирования
- •7.2.1.1 Постановка задачи
- •7.2.1.2 Венгерский метод
- •7.2.1.3 Метод потенциалов
- •7.3 Прямые методы условной оптимизации
- •7.3.1 Основные определения
- •7.3.2 Метод проекции градиента
- •7.3.3 Комплексный метод Бокса
- •7.4 Методы штрафных функций
- •7.4.1 Основные определения
- •7.4.2 Методы внутренних штрафных функций
- •7.4.3 Методы внешних штрафных функций
- •7.4.4 Комбинированные алгоритмы штрафных функций
- •7.5 Информационные технологии поддержки принятия решений
- •7.6 Информационные технологии экспертных систем Характеристика и назначение
- •Список литературы
7.3.2 Метод проекции градиента
Рассмотрим данный метод применительно к задаче оптимизации с ограничениями-неравенствами. В качестве начальной выбирается некоторая точка допустимой области G.Еслих[0] -внутренняя точка множестваG(рис. 7.11), то рассматриваемый метод является обычным градиентным методом:
x[k+l] x[k] –akf’(x[k]), k 0, 1, 2, ..., (7.38)
где (7.39) ‑ градиент целевой функцииf(х)в точкеx[k].
После выхода на границу области Gв некоторой граничной точкех[k] , k 0, 1, 2,..., движение в направлении антиградиента-f’(х[k])может вывести за пределы допустимого множества (см. рис. 7.11). Поэтому антиградиент проецируется на линейное многообразиеМ,аппроксимирующее участок границы в окрестности точких[k].Двигаясь в направлении проекции вектора-f'(x[k]) на многообразиеМ,отыскивают новую точкух[k+1], в которойf(х[k+1]) f(x[k]), принимаютх[k+1] за исходное приближение и продолжают процесс. Проведем более подробный анализ данной процедуры.
Рис. ‑ 7.11 Геометрическая интерпретация метода проекции градиента
В точке х[k] часть ограничений-неравенств удовлетворяется как равенство:
hi(x) 0,j 1, ...,l; l m.
Такие ограничения называют активными.
Обозначим через Jнабор индексов j(1 j l) этих ограничений. Их уравнения соответствуют гиперповерхностям, образующим границу областиGв окрестности точких[k] .В общем случае эта граница является нелинейной (см. рис. 3.1). Ограниченияhj(x), j J,аппроксимируются гиперплоскостями, касательными к ним в точкех[k]:
(7.39)
Полученные гиперплоскости ограничивают некоторый многогранник М, аппроксимирующий допустимую областьGв окрестности точких[k] (см. рис. 7.11).
Проекция р[k] антиградиента ‑f'(x[k])на многогранник вычисляется по формуле
p[k] P[‑f’(x[k])]. (7.40)
Здесь Р ‑ оператор ортогонального проектирования, определяемый выражением
Р E – AT(AAT)-1A, (7.41)
где Е‑ единичная матрица размеровп;А- матрица размеровlхn. Она образуется транспонированными векторами-градиентамиаj, j 1, ...,l, активных ограничений. Далее осуществляется спуск в выбранном направлении:
x[k+1] x[k] +akp[k]. (7.42)
Можно показать, что точка х[k+1] является решением задачи минимизации функцииf(х)в областиGтогда и только тогда, когда
Р[‑f’(x[k])] 0, (7.43)
т. е, (7.44)
и u (u1, ..., ul) (ATA)-1AT(-f’(х[k])) 0. (7.45)
Эти условия означают, что антиградиент (-f’(х[k]))целевой функции является линейной комбинацией с неотрицательными коэффициентами градиентов ограниченийhj(x) 0.
В соответствии с изложенным алгоритм метода проекции градиента состоит из следующих операций.
1. В точке х[k] определяется направление спускар[k].
2.Находится величина шагааk.
3. Определяется новое приближение х[k+1].
Рассмотрим детально каждую из этих операций.
1. Определение направления спуска состоит в следующем. Пусть найдена некоторая точка х[k] Gи известен набор активных ограниченийhi(х[k]) 0,j J. На основании данной информации вычисляют(-f’(х[k]))и определяют проекциюР[-f’(х[k])]. При этом возможны два случая:
а) Р[‑f’(х[k])] не равна 0. В качестве направления спускар[k] принимают полученную проекцию;
б) Р[-f’(х[k])] 0, т. е. . (7.46)
Данное выражение представляет собой систему из пуравнений для определения коэффициентовиj. Если всеиj 0, j J, то в соответствии с вышеизложенным точках[k] является решением задачи. Если же некоторый компонентиq 0, то соответствующий ему градиент выводится из матрицыАи порождается новая проецирующая матрицаР.Она определит новое направление спуска.
2. Для определения величины шага аkцелевая функция минимизируется по направлениюр[k] при условии соблюдения ограничений задачи с установленной точностью. Последняя задается введением некоторого положительного числа. Считают, что точкахудовлетворяет условиям задачи с заданной точностью, еслиhi(х) , j 1, ..., m. Величина шагааkопределяется решением задачи вида:
f(x[k] +ар[k])> min; (7.47)
hj(x[k] +ар[k]) ,j 1, ...,m. (7.48)
3.Определение нового приближения состоит в следующем. Очередная точка вычисляется по формуле
x[k+1] x[k] + аkр[k]. (7.49)
Признаком сходимости является стремление к нулю векторов р[k].Рассмотренный метод является в некотором смысле аналогом градиентных методов для решения задач на безусловный экстремум, и ему свойствен их недостаток - медленная сходимость.