- •1.Электрическая система. Элементы, структура, режимы работы. Показатели, определяющие режимы работы системы.
- •2. Основные понятия теории вероятности.
- •10. Законы распределения случайных величин.
- •11. Определение вероятности, подчиняющейся нормальному закону распределения.
- •13. Определение вероятности по закону Пуассона.
- •14.Определение вероятности, подчиняющейся биноминальному закону распределения.
- •15. Качественные определения основных показателей надежности.
- •17. Аналитическая взаимосвязь основных показателей надежности.
- •18. Расчетные формулы показателей надежности, их упрощение и область применения.
- •19. Полная и расчетная диаграммы состояния объекта расчета надежности.
- •20.Количественные показатели восстановления.
- •21. Расчетные формулы показателей восстановления.
- •22. Метод дифференциальных уравнений Колмогорова.
- •23. Логические схемы расчета надежности.
- •24.Типовые логические схемы расчета надежности.
- •25. Частные случаи типовых логических схем расчета надежности
- •26.Правило Рябинина.
- •27.Реальные соединения элементов при расчете надежности.
- •28.Системы случайных величин и их характеристики. Функция распределения и плотность распределения системы случайных величин.
- •29.Числовые характеристики системы 2-х случайных величин.
- •30.Общие сведения о случайных функциях и процессах.
- •32. Стационарные и нестационарные случайные функции.
- •37. Критерий согласия (Пирсона, Колмогорова, ĩ).
- •38.Регрессионный анализ результатов измерения.
- •Цели регрессионного анализа
- •Математическое определение регрессии
- •40.Нелинейная регрессия.
- •41.Задачи электроснабжения, требующие поиска оптимальных решений.
- •43.Модели, применяемые для решения оптимизационных задач.
- •44. Классификация методов оптимизации.
- •45. Методы линейного планирования.
- •48. Каноническая форма задачи линейного планирования.
- •51.Симплекс-таблица задачи линейного планирования.
- •55.Градиентный метод решения задачи нелинейного планирования.
- •Алгоритм
- •56.Метод динамического планирования. Область применения и содержание.
- •57.Рекурентное соотношение методов динамического планирования.
- •58.Принцип оптимальности Белмана на примере задачи.
37. Критерий согласия (Пирсона, Колмогорова, ĩ).
Статистический критерий — строгое математическое правило, по которому принимается или отвергается та или иная статистическая гипотеза с известным уровнем значимости. Построение критерия представляет собой выбор подходящей функции от результатов наблюдений (ряда эмпирически полученных значений признака), которая служит для выявления меры расхождения между эмпирическими значениями и гипотетическими.
Пусть даны выборка из неизвестного совместного распределения , и семейство статистических гипотез . Тогда статистическим критерием называется функция, устанавливающая соответствие между наблюдаемыми величинами и возможными гипотезами:
.
-
Критерии согласия. Проверка на согласие подразумевает проверку предположения о том, что исследуемая случайная величина подчиняется предполагаемому закону. Критерии согласия можно также воспринимать, как критерии значимости.
Критерий Пирсона, или критерий χ2 (Хи-квадрат) — наиболее часто употребляемый критерий для проверки гипотезы о законе распределения. Во многих практических задачах точный закон распределения неизвестен, то есть является гипотезой, которая требует статистической проверки. Критерии Пирсона χ 2 : распределение χ 2 со степенью свободы наз-ся распределение суммы квадратов независимых случайных величин, каждая из которых подчиняется нормальному закону распределения со следующими параметрами. mx=0 и φ=1. В качестве меры расхождения n принято χ 2
r=k s , к - число группы, r – число степеней свободы, s – число связей.
Критерий Колмогорова в качестве меры расхождения между теоретическим и статистическим распределением Колмогоров рассматривает максимальные значения модуля разности м/д статистической ф-ей распределения и соотв-й теоретической. D=мах |F*(x*)-F(x) | основанием для выбора меры распределения D является простота ее вычислений. Колмогоров доказал, что какова бы не была ф-я распределения F(x) при неограниченном возрастании числа наблюдений вероятность нер-ва D √ n ≥λ стремиться к пределу
Данное выражение представляется таблицей в справочных данных.
Ĩ используется для проверки однородности наблюдений, исключения грубых ошибок или выбросов.
38.Регрессионный анализ результатов измерения.
Регрессио́нный анализ (линейный) — статистический метод исследования зависимости между зависимой переменной Y и одной или несколькими независимыми переменными X1,X2,...,Xp. Независимые переменные иначе называют регрессорами или предикторами, а зависимые переменные — критериальными. Терминология зависимых и независимых переменных отражает лишь математическую зависимость переменных (см. Ложная корреляция), а не причинно-следственные отношения.
Цели регрессионного анализа
-
Определение степени детерминированности вариации критериальной (зависимой) переменной предикторами (независимыми переменными)
-
Предсказание значения зависимой переменной с помощью независимой(-ых)
-
Определение вклада отдельных независимых переменных в вариацию зависимой
Регрессионный анализ нельзя использовать для определения наличия связи между переменными, поскольку наличие такой связи и есть предпосылка для применения анализа.