На сегодняшний день экспоненциальная авторегрессионная модель [1] является одной из наиболее удачных и активно используемых на практике моделей для анализа временных рядов. С ее помощью может быть представлено множество физических, биологических и экономических нелинейных процессов. Например, качка корабля и последовательности импульсов в коре головного мозга [2], колебания курсов валют и риски изменения банками процентных ставок [3].
Обобщенная экспоненциальная авторегрессионная модель описывается следующим рекуррентным соотношением:
(1)
где , , — параметры модели;
— последовательность независимых случайных величин, удовлетворяющая следующим условиям:
Данную последовательность принято называть «обновляющим процессом».
С ростом порядка модели, увеличивается и вычислительная сложность компьютерного эксперимента, в котором она используется. В связи с этим на практике наиболее часто применяется модель первого порядка. При соотношение (1) принимает следующий вид:
(2)
Предположим, что имеется процесс , удовлетворяющий уравнению (2) и имеются его наблюдений: В таком случае параметры уравнения можно оценить методами наименьшних квадратов (МНК) и наименьшних модулей (МНМ) , представляющих из себя решения задач минимизации функций (3) и (4) соответственно:
(3)
(4)
Точность оценки скалярного параметра распределения вероятности произвольной случайной величины логично измерять как абсолютную величину её отклонения от оцениваемого параметра: . С учетом того, что величина случайна вследствие случайности самой оценки , то имеет смысл заменить её на .
На практике удобнее работать со всюду дифференциируемыми функциями, поэтому в свою очередь может быть заменено на .
Определение лучшей оценки скалярного параметра может быть осуществлено согласно следующему правилу:
где — оценки исследуемого скалярного параметра.
Таким образом, вводится возможность качественного сравнения оценок. Количественное же сравнение оценок может быть выражено соотношением (5). Будем называть его относительной эффективностью по отношению к :
(5)
В качестве тестовых распределений используем распределения Гаусса (6), Тьюки (7), Лапласа (8), Стьюдента (9), Коши (10) и логистическое распределение (11). Конкретные их значения получим с помощью датчика случайных чисел библиотеки NumPy языка программирования Python.
(6)
(7)
(8)
(9)
(10)
(11)
Вектор наблюдений сгенерируем раз со следующими начальным условием и параметрами:
Важно отметить, что подобный выбор параметров , и , и распределений вероятности обновляющего процесса не совсем случаен. Он позволяет согласно [4] считать, что модель (2) является стационарной, так как выполняются условия:
Минимизацию функций оценок параметров будем производить с помощью оптимизационного алгоритма Левенберга-Марквардта [5], представляющего из себя удачную комбинацию двух других методов: Гаусса-Ньютона и наивного градиентного спуска. Направление его поиска определяется следующим матричным уравнением:
где — якобиан минимизируемой функции ,
— параметр регуляризации, индивидуальный для каждой итерации алгоритма,
— единичная матрица,
— вектор изменения : .
Для проведения вычислительного эксперимента была использована реализация метода Левенберга-Марквардта из библиотеки SciPy языка программирования Python.
В силу того что оценки и векторные, их сравнение происходило независимо покоординатно. Так, например, относительная эффективность параметра рассчитывалась следующим образом:
Для краткости приведем таблицу относительной эффективности только для параметра .
Оценка относительной эффективности МНК по отношению к МНМ при разлчиных распределениях и числе шагов
Распределение ε(t) | Число шагов n | |||
50 | 100 | 200 | 500 | |
Гаусса | 1,667 | 1,553 | 1,473 | 1,531 |
Тьюки: γ = 0,01, τ = 3 γ = 0,01, τ = 10 γ = 0,1, τ = 3 γ = 0,1, τ = 10 |
1,581 0,772 1,017 0,169 |
1,561 0,810 1,011 0,163 |
1,452 0,779 0,952 0,159 |
1,435 0,879 1,052 0,173 |
Лапласа | 0,676 | 0,634 | 0,609 | 0,561 |
Стьюдента: m = 15 m = 10 m = 5 m = 4 |
1,314 1,329 1,023 0,900 |
1,473 1,371 1,080 0,908 |
1,379 1,401 1,103 0,879 |
1,366 1,313 0,989 0,911 |
Коши | 3,551 · 10–5 | 1,831 · 10–4 | 5,333 · 10–5 | 1,191 · 10–5 |
Логическое | 1,215 | 1,323 | 1,185 | 1,301 |
В таблице демонстрируется, что МНК однозначно превосходит МНМ в случаях нормального и логистического распределений. Также он оказывается лучше МНМ для распределения Стьюдента при , , и для распределения Тьюки при . Из этого может быть сделан вывод, что МНК эффективнее МНМ для распределения Стьюдента при больших значениях параметра () и для распределения Тьюки при малых значениях параметра . В остальных случаях МНМ превосходит МНК. При этом погрешность методики тестирования уменьшается пропорционально что в совокупности с погрешностями алгоритма Левенберга — Марквардта обуславливает высокую степень разброса значений в таблице.
В следующей работе планируется дополнить сравнение методом наименьших функций, который может быть выражен следующей формулой:
где , например, является функцией потерь Хьюбера для устойчивой регрессии: