Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Обработка рез. измерений.docx
Скачиваний:
24
Добавлен:
18.09.2019
Размер:
28.34 Кб
Скачать

Обобщение мнк

1) Обобщение на двухпараметрическую зависимость.

(3)

Эту модель мы будем использовать для конструкционной матрицы.

(4)

Такая матрица составляется для того, чтобы обработать экспериментальные данные, зависящие от двух аргументов. Все остальное остается тем же самым. Схема решения не изменяется тоже.

2) Обобщение не равноточные измерения.

Для работы вводятся веса и обозначаются w_1 w_2 …. w_n и каждому значению приписывается свой вес. На значение веса влияет погрешность данного результата. После того как веса расписаны составляется диагональная весовая матрица – это большая квадратная матрица. По диагонали ставятся корни из весов. Матрица n на n.

(5)

После этого все матрицы, которые мы записывали умножаются слева на эту матрицу.

(6)

Дальше все также, только вместо матриц нужно поставить взвешенные матрицы.

(7)

3) Введение дополнительных условий (обобщение МНК с учетом дополнительных условий).

(8)

Для простоты будем рассматривать снова … регистрационный многочлен в форме полинома.

Точек будет

(9)

Для того чтобы обрабатывать данные сведения таких условий, составляется конструкционная матрица. Она добавляется снизу к строчками.

(10)

С войдут в Y снизу по-порядку.

Понятие СКО в этом случае теряет свой первоначальный математический смысл и просто становится некоторой абстрактной математической характеристикой). МНК может быть и двумерным и может быть обобщен на весовые характеристики экспериментальных данных сведением весовой матрицы к n+k на n+k.

Элементы ре анализа

Если двумерная аппроксимация, например, 4х4, то r=25, r – регрессоры.

Метод последовательного зануления наименее значимого коэффициента.

Когда большой разброс нужно вводить логарифмирование и тогда только получим нормальную аппроксимацию. Метод зануления стабильно дает положительные результаты.

Введем матрицу В, которая представляет из себя квадрат конструкционной матрицы:

(11)

С помощью матрицы В могут быть охарактеризованы регрессоры.

(12)

Далее определяется погрешность измерения.

(13)

Рассчитав эти две характеристики можем получить значимость коэффициента:

(14)

Сущность метода состоит в том, что составляется последовательный ряд аппроксимационных многочленов. Причем при составлении каждого последующего многочлена исключается регрессор для которого значение О минимально. Коэффициент с наименьшей значимостью зануляется. Точность от этого не уменьшается. Таким способов удается существенно сократить количество значимых регрессоров почти без потери точности.

Для того чтобы выбрать оптимальную аппроксимацию имеется два критерия:

Внешний критерий, определяемый либо погрешностью приборов, либо экспериментальных данных. Внешний критерий может определяться условием задачи.

Внутренний критерий. В статистике показано, что расхождение аппроксимаций с p и p+k регрессоров статистически не значимо, если

(15)

Допустим аппроксимация проведена с погрешностью 0,03В мы заложили 4х4, получилось 25 регрессоров. Получили сигму 0,2>0,03. Полином не справился с аппроксимацией. С точность 0,2 справился, а с точностью 0,03 не справился. Если у нас при анализе получилось, что критерий не выполнен, то мы должны остановится и не уменьшать количество зануленных регрессоров.

Получить оптимальную аппроксимацию выданного массива данных и доказать, что она оптимальная ( оптимальная – самая точная). Должна быть таблица, обязательно указано выбранное нами аппроксимация ( выделить ее, чтобы было видно), и обоснование, почему именно эта аппроксимация оптимальна. Для этой оптимальной нужно выдать выдачу по третьей форме (L_a = 3), чтобы можно было проверить. Написать аппроксимационный полином. Пошевелить значащие цифры и посмотреть что изменится. Ответ на бумаге. За y принимать температуру. Вариант 8.