- •Раздел 1. Общеобразовательные дисциплины
- •Раздел 2. Специальные дисциплины
- •Раздел 1. Общеобразовательные дисциплины
- •1.Основные понятия теории вероятностей. Случайные события, случайные величины. Функция распределения вероятностей, плотность распределения вероятностей.
- •2.Среднее значение (момента) случайных величин. Математическое ожидание, дисперсия.
- •3. Характеристическая функция случайных величин.
- •4. Нормальное (Гауссовское) распределение случайных величин. Плотность распределения и характеристическая функция момента.
- •5. Независимость случайных величин. Совместное распределение двух случайных величин. Условное распределение.
- •6. Семиуровневая модель osi/iso (гост р исо/мэк 7498-1-99).
- •Взаимодействие уровней модели osi
- •Уровень представления данных (Presentation layer)
- •Сеансовый уровень (Session layer)
- •Транспортный уровень (Transport Layer)
- •Сетевой уровень (Network Layer)
- •Канальный уровень (Data Link)
- •Физический уровень (Physical Layer)
- •7. Технико-экономические аспекты создания программного обеспечения вс. Оценка стоимости программной разработки.
- •8. Распределение затрат по фазам и видам работ программной разработки.
- •9. Компилятор в языках высокого уровня. Функции. Виды компиляторов.
- •Функции
- •Компиляторы
- •10. Ассемблер. Основные языковые конструкции. Необходимость двухпроходной трансляции. Основные работы, выполняемые транслятором. Таблицы транслятора.
- •11. Формальный язык. Грамматика. Сентенциальная форма. Нисходящий и восходящий анализ.
- •Грамматика
- •12. Понятие алгоритма и его свойства. Нормальные алгоритмы Маркова.
- •13. Иерархия запоминающих устройств. Кэш-память. Работа с кэш-памятью.
- •14. Прерывания. Классификация прерываний. Организация обработки прерываний.
- •15. Виды параллелизма. Векторная и конвейерная обработка. Классификация вычислительных комплексов по сочетанию потоков данных и потоков команд.
- •16. Информационная интегрированная среда предприятия. Общая база данных об изделиях (обди). Разделы обди.
- •17. Электронный документ. Технический электронный документ: форма представления, виды, жизненный цикл.
- •18. Электронная цифровая подпись. Суть и процесс использования электронной цифровой подписи.
- •19. Автоматизированные информационные системы. Цели и методы автоматизации.
- •20. Автоматизированные информационные системы. Математическое и программное обеспечение. Математическая модель. Программное изделие.
- •21. Свободное программное обеспечение: суть, области и проблемы использования.
- •22. Жизненный цикл программного обеспечения. Длительность. Состав. Стадии сопровождения.
- •Раздел 2. Специальные дисциплины
- •1. Модуль в языке System Verilog. Определение модуля, его применение. Задание портов и параметров.
- •2. Типы данных. Wire, reg, logic. Массивы. Строковый тип. Задание числе (в двоичном, десятичном, шестнадцатиричном виде).
- •3. Примитивы, типы примитивов. Объявление и применение примитивов.
- •4. Процедурные блоки (initial и always). Операторы управления временем.
- •Управление временем
- •5. Процедурные операторы. Операторы условного перехода. Операторы цикла. Операторы назначения. Оператор непрерывного назначения.
- •6. Маршрут проектирования программ плис. Средства разработки и проверки. Структура плис. Временные задержки сигналов
- •7. Математическое, программное и информационное обеспечение сапр. Математическая модель. Программное изделие.
- •8. Виды обеспечений, типы подсистем сапр. Общие требования к типовым сапр рэа.
- •9. Принципы измерения вектора движения ка
- •10. Геоцентрическая инерциальная система координат. Прямоугольные, сферические и геодезические координаты
- •11. Классификация орбит ка по параметрам движения. Параметры орбиты по Кеплеру.
- •12. Четыре основных свойства по.
- •13. Каскадная и спиральная модель жизненного цикла программного обеспечения
- •V модель (разработка через тестирование)
- •14. Биологический нейрон. Математическая модель нейрона. Связь искусственных нейронных сетей (инс) с другими дисциплинами. Проблемы, решаемые в контексте инс.
- •15. Архитектура нейронных сетей. Однослойный персептрон. Функции активации. Многослойный персептрон.
- •16. Понятие обучения. Методы обучения. Обучение персептрона. Процедура обратного распространения.
- •Метод к- ближайших соседей
- •Процедура обратного распространения
- •17. Гипотеза Хебба. Гипотеза ковариации. Конкурентное обучение.
- •18. Понятие vc-измерения (Вапника-Червоненкиса). Оценки обобщающей способности в задаче классификации. Теорема об универсальной аппроксимации.
- •19. Сети с локальным базисом. Сравнение сетей rbf с многослойным персептроном.
- •20. Сети Кохонена. Формализация задачи классификации для сети Кохонена. Алгоритм классификации для сети Кохонена.
- •21. Обучение Больцмана. Стохастические модели. Правило обучения Больцмана. Машина Больцмана.
- •22. Нейрокомпьютеры. Основные понятия. Классификация нейрокомпьютеров.
- •1. Что такое нейрокомпьютер?
- •2. Нейронные сети - основные понятия и определения
- •3. Модели нейронных сетей
- •3.1. Модель Маккалоха
- •3.2. Модель Розенблата
- •3.3. Модель Хопфилда
- •3.4. Модель сети с обратным распространением
- •4. Задачи, решаемые на основе нейронных сетей
- •5. Способы реализации нейронных сетей
- •6. Выводы
4. Нормальное (Гауссовское) распределение случайных величин. Плотность распределения и характеристическая функция момента.
Нормальное распределение, также называемое распределением Гаусса, — распределение вероятностей, которое играет важнейшую роль во многих областях знаний, особенно в физике. Физическая величина подчиняется нормальному распределению, когда она подвержена влиянию огромного числа случайных помех.Ясно, что такая ситуация крайне распространена, поэтому можно сказать, что из всех распределений, в природе чаще всего встречается именно нормальное распределение — отсюда и произошло одно из его названий.
Нормальное распределение зависит от двух параметров —смещения и масштаба, то есть, является, с математической точки зрения, не одним распределением, а целым их семейством. Значения параметров соответствуют значениям среднего (математического ожидания) и разброса (стандартного отклонения).
Стандартным нормальным распределением называется нормальное распределение с математическим ожиданием 0 и стандартным отклонением 1.
Плотность вероятности
Зелёная линия соответствует стандартному нормальному распределению | |
Функция распределения
Цвета на этом графике соответствуют графику наверху | |
Параметры |
- коэффициент сдвига(вещественное число) - коэффициент масштаба (вещественный) |
Носитель | |
Плотность вероятности | |
Функция распределения | |
Математическое ожидание | |
Медиана | |
Дисперсия | |
Производящая функция моментов | |
Характеристическая функция |
Source: Нормальное (Гауссовсое) распределение
Дополнение: Предельная центральная теорема, момент случайной величины, тоже самое с другими распределениями
5. Независимость случайных величин. Совместное распределение двух случайных величин. Условное распределение.
В одном и том же случайном эксперименте можно рассматривать не одну, а несколько - n - числовых функций, определенных на одном и том же пространстве элементарных событий. Совокупность таких функций называется многомерной случайной величиной или случайным вектором и обозначается .
Точнее. На вероятностном пространстве заданы случайные величины ; каждому w W эти величины ставят в соответствие n-мерный вектор , который называется n-мерным случайным вектором (n-мерной случайной величиной).
Функцией распределения случайного вектора или совместным распределением случайных величин называется функция, определенная равенством
, где .
По известной многомерной функции можно найти распределение каждой из компонент .
Например, если - двумерная случайная величина, имеющая совместное распределение, то распределения компонент и вычисляются соответственно по формулам:
, .
Условным законом распределения величины , входящей в систему , называется ее закон распределения, вычисленный при условии, что другая случайная величина приняла определенное значение .
Условный закон распределения можно задавать как функцией распределения, так и плотностью. Условная функция распределения обозначается условная плотность распределения .
При изучении систем случайных величин всегда следует обращать внимание на степень и характер их зависимости. Эта зависимость может быть более или менее ярко выраженной, более или менее тесной. В некоторых случаях зависимость между случайными величинами может быть настолько тесной, что, зная значение одной случайной величины, можно в точности указать значение другой. В другом крайнем случае зависимость между случайными величинами является настолько слабой и отдаленной, что их можно практически считать независимыми.
Понятие о независимых случайных величинах – одно их важных понятий теории вероятностей.
Случайная величина называется независимой от случайной величины , если закон распределения величины не зависит от того, какое значение приняла величина .
Для непрерывных случайных величин условие независимости от может быть записано в виде:
при любом .
Напротив, в случае, если зависит от , то .
[ Докажем, что зависимость или независимость случайных величин всегда взаимны: если величина не зависит от .
Действительно, пусть не зависит от :
. (1)
Из формул (8.4.4) и (8.4.5) имеем:
,
откуда, принимая во внимание (1), получим:
что и требовалось доказать. ]
Так как зависимость и независимость случайных величин всегда взаимны, можно дать новое определение независимых случайных величин.
Случайные величины и называются независимыми, если закон распределения каждой из них не зависит от того, какое значение приняла другая. В противном случае величины и называются зависимыми.
Для независимых непрерывных случайных величин теорема умножения законов распределения принимает вид:
, (2)
т. е. плотность распределения системы независимых случайных величин равна произведению плотностей распределения отдельных величин, входящих в систему.
Условие (2) может рассматриваться как необходимое и достаточное условие независимости случайных величин.
Часто по самому виду функции можно заключить, что случайные величины , являются независимыми, а именно, если плотность распределения распадается на произведение двух функций, из которых одна зависит только от , другая - только от , то случайные величины независимы.
[ Пример. Плотность распределения системы имеет вид:
.
Определить, зависимы или независимы случайные величины и .
Решение. Разлагая знаменатель на множители, имеем:
.
Из того, что функция распалась на произведение двух функций, из которых одна зависима только от , а другая - только от , заключаем, что величины и должны быть независимы. ]
Вышеизложенный критерий суждения о зависимости или независимости случайных величин исходит из предположения, что закон распределения системы нам известен. На практике чаще бывает наоборот: закон распределения системы не известен; известны только законы распределения отдельных величин, входящих в систему, и имеются основания считать, что величины и независимы. Тогда можно написать плотность распределения системы как произведение плотностей распределения отдельных величин, входящих в систему.
Sources: Совместные распределения величин, Условные распределения, Зависимые и независимые распределения величин