Построение и исследование моделей краткосрочного прогнозирования гликемии у больных сахарным диабетом
.pdfСкользящее среднее. Метод сглаживания временных рядов с помощью скользящих средних относятся к алгоритмическому подходу.
При применении алгоритмического подхода отказываются от ограничи-
тельного допущения. Процедуры этого класса не предполагают описания дина-
мики не случайной составляющей с помощью единой функции, они предостав-
ляют исследователю лишь алгоритм расчета неслучайной составляющей в лю-
бой заданный момент времени t.
Иногда скользящее среднее используют как подготовительный шаг перед моделированием тренда с помощью процедур, относящихся к аналитическому подходу.
Скользящие средние позволяют сгладить как случайные, так и периодиче-
ские колебания, обнаружить имеющуюся тенденцию в развитии процесса, и по-
этому служат важным инструментом при фильтрации компонент временного ряда.
Алгоритм сглаживания по простой скользящей средней может быть пред-
ставлен в виде следующей последовательности шагов [13]:
1) Определяют длину интервала сглаживания , включающего в себя по-
следовательных уровней ряда ( < ). При этом надо иметь в виду, что чем шире интервал сглаживания, тем в большей степени взаимопогашаются колебания, и
тенденция развития носит более плавный, сглаженный характер. Чем сильнее ко-
лебания, тем шире должен быть интервал сглаживания.
2) Разбивают весь период наблюдения на участки, при этом интервал сгла-
живания как бы скользит по ряду с шагом, равным 1.
3)Рассчитывают средние арифметические из уровней ряда, образующих каждый участок.
4)Заменяют фактические значения ряда, стоящие в центре каждого участка, на соответствующие средние значения временного ряда при использо-
вании простой скользящей средней.
Для этого необходимо:
21
1) Вычислить средний абсолютный прирост на последнем активном
участке |
|
|
|
|
|
|
|
|
|
|
|
|
, |
|
, … , |
, , |
, … , |
, |
: |
(4) |
|||
− |
− +1 |
|
−1 |
|
+1 |
+−1 |
+ |
|
|
||
|
|
|
|
|
− |
|
|
|
|
|
|
|
|
̅̅̅̅ |
+ |
− |
|
|
|
(5) |
|||
|
|
∆ = |
− 1 |
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
где:
– длина активного участка;
+ – значение последнего уровня на активном участке;
− – значение первого уровня на активном участке;
̅̅̅̅ – средний абсолютный прирост на последнем активном участке.
∆
2) Получить p сглаженных значений в конце временного ряда путем после-
довательного прибавления среднего абсолютного прироста к последнему сгла-
женному значению.
Метод простой скользящей средней применим, если графическое изобра-
жение динамического ряда напоминает прямую. Когда тренд выравниваемого ряда имеет изгибы и для исследователя желательно сохранить мелкие волны, то применение простой скользящей средней нецелесообразно. Если для процесса характерно нелинейное развитие, то простая скользящая средняя может приве-
сти к существенным искажениям. В этих случаях следует обратиться к взвешен-
ной скользящей средней.
Прогнозирование. Прогнозирование – одна из самых востребованных и сложных задач интеллектуального анализа данных [14]. Проблемы прогнозиро-
вания связаны с недостаточным качеством и количеством исходных данных, из-
менениями среды, в которой протекает процесс, взаимодействием субъективных факторов. Прогноз всегда осуществляется с некоторой погрешностью, которая зависит от используемой модели прогноза и полноты исходных данных. При уве-
личении информационных ресурсов, используемых в модели, увеличивается точность прогноза, а убытки, связанные с неопределенностью при принятии ре-
шений, уменьшаются. Характер затрат, связанных с прогнозированием, таков,
22
что за определенным пределом дополнительные затраты не приведут к сниже-
нию потерь. Это связано с тем, что объективно невозможно снизить погрешность прогнозирования ниже определенного уровня, вне зависимости от того насколько хорош примененный метод прогнозирования.
Поэтому определение погрешности прогноза, наряду с самим прогнозом,
позволяет значительно снизить риск при принятии решений. Известны и широко применяются различные методы прогнозирования: алгоритмы экстраполяции экспериментальных данных в несложных инженерных расчетах и программных продуктах, а также более громоздкие статистические методы, использующие па-
раметрические модели.
1.5. Модели прогнозирования временных рядов
Модели прогнозирования временных рядов можно разделить на две группы: статические и структурные. В статистических моделях функциональная зависимость между будущими и фактическими значениями временного ряда, а
также внешними факторами задана аналитически. К статистическим моделям от-
носятся следующие группы [15]:
регрессионные модели;
авторегрессионные модели;
модели экспоненциального сглаживания.
В структурных моделях функциональная зависимость между будущими и фактическими значениями временного ряда, а также внешними факторами за-
дана структурно. К структурным моделям относятся следующие групп нейросе-
тевые модели.
Кроме того, необходимо отметить, что для узкоспециализированных задач иногда применяются особые модели прогнозирования.
Регрессионные модели Существует немало задач, требующих исследования отношения между
двумя и более переменными. Для решения таких задач применяется регрессион-
23
ный анализ [16]. В настоящее время регрессия получила обширное использова-
ние, включая задачи прогнозирования и управления. Целью регрессионного ана-
лиза является определение зависимости между исходной переменной и множе-
ством внешних факторов (регрессоров). При этом коэффициенты регрессии мо-
гут определяться по методу наименьших квадратов [16] или методу максималь-
ного правдоподобия [17].
Авторегрессионные модели В основу авторегрессионных моделей заложено предположение о том, что
значение процесса Z(t) линейно зависит от некоторого количества предыдущих значений того же процесса Z(t−1) , …, Z(t− p).
Модели экспоненциального сглаживания
Модели экспоненциального сглаживания разработаны в середине XX века
идо сегодняшнего дня являются широко распространенными в силу их простоты
инаглядности.
Нейросетевые модели В настоящее время самой популярной среди структурных моделей явля-
ется модель на основе искусственных нейронных сетей (artificial neural network,
НС) [18]. Нейронные сети состоят из нейронов. Модель нейрона можно описать парой уравнений
( ) = ∑ ∙ ( − ) + , |
|
|
|
(6) |
|
=1 |
||
|
||
( ) = ( ( )), |
|
где ( − 1), … , ( − ) – входные сигналы; 1, … , − синаптические веса нейрона; − порог; ( ( )) − функция активации.
При помощи нейронных сетей возможно моделирование нелинейной зави-
симости будущего значения временного ряда от его фактических значений и от значений внешних факторов. Нелинейная зависимость определяется структурой сети и функцией активации.
24
1.6. Сравнительный анализ моделей прогнозирования
Регрессионные модели и методы. К достоинствам данных моделей отно-
сят простоту, гибкость, а также единообразие их анализа и проектирования. При применении линейных регрессионных моделей результат прогнозирования мо-
жет быть получен быстрее, чем при применении остальных моделей. Также до-
стоинством является прозрачность моделирования, т. е. доступность для анализа всех промежуточных вычислений.
Главным недостатком нелинейных регрессионных моделей является труд-
ность определения вида функциональной зависимости, а также трудоемкость определение параметров модели. Недостатками линейных регрессионных моде-
лей являются низкая адаптивность и отсутствие способности моделирования не-
линейных процессов.
Авторегрессионные модели и методы. Важными достоинствами данного класса моделей являются их простота и прозрачность моделирования. Ещё од-
ним достоинством является единообразие анализа и проектирования, заложен-
ное в работе. На данный момент этот класс моделей является одним из наиболее популярных, а потому в свободном доступе модно довольно просто найти при-
меры применения авторегрессионных моделей для решения задач прогнозирова-
ния временных рядов различных предметных областей.
Недостатками данного класса моделей являются: огромное количество па-
раметров модели, идентификация которых неоднозначна и ресурсоемка; низкая адаптивность моделей, а также линейность и, как следствие, отсутствие способ-
ности моделирования нелинейных процессов, нередко встречающихся на прак-
тике.
Модели и методы экспоненциального сглаживания. Достоинствами этого класса моделей являются простота и единообразие их анализа и проекти-
рования. Этот класс моделей чаще остальных применяется для долгосрочного прогнозирования.
Недостатком этого класса моделей является отсутствие гибкости.
25
Нейросетевые модели и методы. Главным достоинством нейросетевых моделей является нелинейность, т.е. способность устанавливать нелинейные за-
висимости между будущими и фактическими значениями процессов. Другими важными достоинствами являются: адаптивность, масштабируемость (парал-
лельная структура ИНС ускоряет вычисления) и единообразие их анализа и про-
ектирования.
При этом недостатками ИНС являются отсутствие прозрачности модели-
рования; сложность выбора архитектуры, высокие требования к непротиворечи-
вости обучающей выборки и ресурсоемкость процесса их обучения.
Сравнительная характеристика моделей прогнозирования приведена в таб-
лице 1.2.
Таблица 1.2 – Сравнительная характеристика моделей прогнозирования
Модель |
Достоинства |
Недостатки |
|
|
|
|
|
|
|
сложность определения |
|
|
|
функциональной зависимо- |
|
|
простота, гибкость, про- |
сти; трудоемкость нахожде- |
|
Регрессионные модели |
зрачность моделирования; |
ния коэффициентов зависи- |
|
единообразие анализа и |
мости; отсутствие возмож- |
||
|
|||
|
проектирования |
ности моделирования нели- |
|
|
|
нейных процессов (для не- |
|
|
|
линейной регрессии) |
|
|
|
|
|
|
|
трудоемкость и ресурсоем- |
|
|
простота моделирования; |
кость идентификации моде- |
|
Авторегрессионные |
единообразия анализа и |
лей; |
|
модели |
проектирования; множе- |
невозможность моделирова- |
|
|
ство примеров применения |
ния нелинейности; низкая |
|
|
|
адаптивность |
|
|
|
|
26
Модель |
Достоинства |
Недостатки |
|
|
|
|
|
Модели экспоненци- |
простота моделирования; |
недостаточная гибкость; уз- |
|
единообразия анализа и |
|||
ального сглаживания |
кая применимость моделей |
||
проектирования; |
|||
|
|
||
|
|
|
|
|
нелинейность модели; мас- |
отсутствие прозрачности; |
|
|
штабируемость, высокая |
||
|
сложность выбора архитек- |
||
|
адаптивность; единообра- |
||
|
туры; жесткие требования к |
||
Нейросетевые модели |
зия анализа и проектирова- |
||
обучающей выборке; ресур- |
|||
|
ния; |
||
|
соемкость процесса обуче- |
||
|
множество примеров при- |
||
|
ния |
||
|
менения |
||
|
|
||
|
|
|
Таким образом, проведенный анализ показал, что для решения задачи про-
гнозирования временных рядов, в частности прогнозирования гликемии, целесо-
образно использование нейросетевых моделей. Для реализации прогнозной нейросетевой модели требуется подготовить выборку данных, обучить модель,
протестировать и провести оценку ее адекватности.
1.7. Основные положения теории искусственных нейронных сетей
Искусственные нейронные сети – это электронные или математические мо-
дели структуры нейронов головного мозга, которые, главным образом, учатся на опыте [16]. Экспериментальным путем доказано, что множество задач могут быть эффективно решены с помощью нейронных сетей, которые не решаются традиционными компьютерами. Нейронная сеть включает в себя множество свя-
занных между собой искусственных нейронов и производит обработку информа-
ции, используя подход для вычислений, связанный с обучением нейросетевой модели. Очень часто это адаптивная система, то есть способная изменять свои конструктивные особенности, основываясь на обработке, входящей или исходя-
щей информации, которая проходит через нейронную сеть в период обучения.
Искусственные нейронные сети нашли применение в моделировании сложных отношений между входными данными и выходными (аппроксимация
27
функций) для распознавания образов, классификации, кластеризации, категори-
зации, оптимизации или управления динамическими системами. Перечень сфер,
где нейронные сети нашли практическое применение, продолжает пополняться с развитием научно-технического прогресса.
1.8. Модель биологического нейрона
Система нервных окончаний и головной мозг человека включают в себя нейроны, которые соединены друг с другом нервными волокнами. Нервные во-
локна обладают способностью передавать электрические импульсы между нерв-
ными клетками. Все процессы передачи раздражений от ушей, кожи и глаз к мозгу, процессы управления действиями и мышления – все это реализовано в живом организме как передача электрических импульсов между нейронами [16].
На рисунке 1.1. представлена модель взаимосвязанных биологических нейронов. Нейрон (нервная клетка) является особой клеткой в теле человека, ко-
торая выполняет функцию обработки информации, поступающей с внешней среды. Он состоит из тела, или так называемой сомы и отростков нервных воло-
кон двух типов – дендритов, по которым происходит прием информации, и един-
ственного аксона, по которому нейрон может обеспечивать передачу информа-
ции. Одиночный нейрон принимает возбуждения от огромного количества нейронов (их число может достигать тысячи). Считается, что мозг человека со-
стоит из порядка 1011 нейронов, которые имеют между собой примерно 1015 со-
единений. Каждый нейрон передает возбуждение другим нейронам через нерв-
ные стыки, называемые синапсами, при этом процесс передачи сигналов имеет сложную электрохимическую природу. Синапсы играют роль репитеров инфор-
мации, в результате функционирования которых возбуждение может усили-
ваться или ослабляться. Как следствие, к нейрону приходят сигналы, одна часть из которых оказывает возбуждающее, а вторая – тормозящее воздействие.
Нейрон суммирует возбуждающие и тормозящие импульсы. Если их алгебраи-
ческая сумма превышает некоторое пороговое значение, то сигнал с выхода нейрона пересылается посредством аксона к другим нейронам. Результативность
28
передачи импульса синапсом может настраиваться проходящими через него сиг-
налами так, что синапсы могут обучаться в зависимости от активности процес-
сов, в которых они участвуют. Эта зависимость от предыстории действует как память, которая, возможно, ответственна за память человека. Необходимо отме-
тить, что веса синапсов могут изменяться со временем, а значит, меняется и по-
ведение соответствующих нейронов.
Рисунок 1.1 – Взаимосвязь биологических нейронов
1.9. Модель искусственного нейрона
Для нейронных сетей основной структурной единицей является искус-
ственный нейрон, моделирующий основные функции биологического нейрона.
Рассмотрим подробнее модель искусственного нейрона. Данная модель,
которая строится по аналогии с биологическим нейроном, состоит из аналогов
«дендритов» - входящих сигналов. Каждый вход или увеличивает, или умень-
шает силу. Он состоит из элементов трех типов:
1.умножителей (синапсов);
2.сумматора;
3.нелинейного преобразователя (функции активации).
Синапсы, которые формируют связи между нейронами, выполняют умно-
жение значений входного сигнала на число, характеризующее силу связи, так называемый синаптический вес. Функция сумматора – это выполнение сложения сигналов, поступающих по синаптическим связям от других нейронов и внешних входных сигналов. Нелинейный преобразователь реализует нелинейную функ-
29
цию одного аргумента – выхода сумматора. Эта функция называется активаци-
онной функцией или передаточной функцией нейронов. Нейрон в целом реали-
зует скалярную функцию векторного аргумента.
Рассмотрим компоненты искусственного нейрона подробнее. Все искус-
ственные нейронные сети имеют общие элементы, независимо от топологии и функционального назначения. Рассмотрим три основные компоненты искус-
ственного нейрона.
Первым компонентом являются весовые коэффициенты wi. В процессе ра-
боты нейрон получает множество входных сигналов, поступающих одновре-
менно. Каждый вход имеет свой собственный синаптический вес, который вли-
яет на него и необходим для функции сумматора. Вес является мерой важности входных связей и моделирует поведение синапсов биологических нейронов.
Веса влиятельного входа усиливаются и, наоборот, вес несущественного входа принудительно уменьшается, что определяет интенсивность входного сигнала.
Веса могут изменяться в соответствии с обучающими примерами, топологией
нейронной сети и правилами обучения.
Второй компонентой является функция сумматора. Изначально происхо-
дит вычисление взвешенной суммы всех входов. Математически, входные сиг-
налы и соответствующие им веса представлены векторами (x10 , x20 ,..., xno ) и (w10 , w20 ,...,wno ) . Произведение этих векторов будет общим входным сигналом.
Упрощенной функцией сумматора является умножение каждого компонента
вектора х |
на |
соответствующий компонент вектора w: |
вход1 x10 * w10 , |
||||
вход2 |
x20 * w20 , |
и |
нахождение |
суммы |
всех |
произведений: |
|
вход1 |
вход2 |
... входn . Результатом будет одно число, а не многоэлементный |
вектор.
Функция сумматора может принимать другой вид. Ее можно заменить нахождением минимума, максимума, среднего арифметического, произведения или другим алгоритмом. Входные сигналы и весовые коэффициенты перед по-
30