Блог им. AlexeyPetrushin
Прежде чем запускать калибровку на реальных данных цен, сделал простейший тест — а можно ли его вообще использовать, насколько хорошо он работает?
Калибровка — определение неизвестных параметров для известного распределения, двумя методами — Maximum Likelihood и Bayesian.
а) задал простейшую модель, с известными параметрами, б) сгенерировал с нее огромный сэмпл 10000 точек, в) затем фиттинг на полученном сэмпле и г) сравнение полученных резуьтатов с исходными параметрами.
Тестовая модель, Гауссовский Микс:
weights = [0.5, 0.5], means = [0, 0], sigmas = [1, 2]
Результат, точнее его отсутствие, картина ниже (питоновский код):
Параметры определяются совершенно неверно. Причем случай идеальный, простейшая модель, огромный сэмпл.
Также попробовал другой подход, байесовский метод, и он также дает совершенно неверный результат.
П.С.
Гиперболическое Распределение
Результат пока непонятный (питоновский код) визуально график получaется достаточно похожим, но полученные параметры модели не совпадают с исходными.
Вобщем буду дальше разбираться, пока ситуация непонятная, то ли я допустил ошибку в расчетах, то ли фиттинг не нормальных моделей сложно работает.
Мысли
По идее, задача то решаемая. Универсальный подход — оптимизация black box brute force, перебор параметров модели чтоб совпадала с эмпирической гистограммой или CDF — работать будет. И скорей всего достаточно хорошо.
Но, мне интересно почему специализированные методы разработанные для подбора параметров стат моделей (Maximum Likelihood, Bayesian), которые по идее должны работатьлучше чем универсальный black box brute force - не работают.
Как в статье
Long-Term Capital Management (LTCM) был крупным хедж-фондом, возглавляемым лауреатами Нобелевской премии по экономике и известными трейдерами с Уолл-стрит. Он обанкротился в 1998 году, вынудив правительство США вмешаться, чтобы предотвратить крах финансовых рынков.