Определение и основные принципы построения импульсных стратегий изложены в блоге blog.johandp.com. Стратегии очень простые, но являются основой для многих сложных алгоритмов, их элементы используются и в моих роботах. Привожу здесь перевод статьи из блога в целях классификации различных видов стратегий.
Импульс это старейшая особенность, присущая финансовым рынкам. Также это простейшая и одновременно одна из самых запутанных для применения аномалий. Импульс представляет собой тенденцию, при которой активы, демонстрировавшие рост (или падение) в прошлом, продолжат это движение в будущем. Много исследований этой особенности проводилось в академической литературе и было выяснено, что она присутствует на всех рынках и на всей выборке имеющихся данных. И тем не менее, остается много вопросов в использовании импульса для алгоритмической торговли.
Вариант стратегии, использующей ассиметрию статистического распределения доходности, рассмотрен в блоге blog.johnorford.com.
Напомню, приращение цены какого-либо актива равна разнице между его ценой в конце расчетного периода и ценой начала периода:
Прошлая часть — см. в моем блоге.
В этой части разберем технику улучшения производительности стратегии, использующую множество моделей.
Одним из наиболее мощных методов улучшения прибыльности вашей модели является объединение нескольких алгоритмов в так называемое «множество». Теория состоит в том, что комбинируя разные модели и их предсказания, мы получаем более робастные результаты. Тесты показывают, что даже объединение простых моделей может быть производительнее более сложной, но единственной стратегии.
Существует три основных техники объединения:
Смешивание:
Смешивание основано на создании моделей, прогоняемых на немного различных тренировочных наборах и усреднения их результатов для получения одного предсказания. Тренировочный набор переделывается путем повторения или удаления вхождений данных, в результате чего получается несколько разных наборов. Этот процесс работает хорошо для нестабильных алгоритмов (например, деревья решений) или, если присутствует определенная степень случайности в процессе создания моделей ( как, например, начальные веса в нейронных сетях). Получив усредненное предсказание для коллекции моделей с высоким значением подгонки, мы можем уменьшить результирующую подгонку без увеличения недооценки, что приведет к лучшим результатам.