Блог им. fxseminar |Вопрос по MLP -- обучению многослойного персептона

Пусть мы хотим научить MLP (Multilayered perceptron) отличать отрезки (например, длиной 255 значений) некоторого полезного сигнала (например, первых разностей ценового ряда) от отрезков «белого шума». То есть, банально, если на входе сети (255 входных нейронов) полезный сигнал, то на выходе мы хотим получать сигнал как можно ближе (в идеале равный) 1, а если на входе «шум», то 0.

Понятно, что мы можем сгенерировать столько образцов белого шума, сколько захотим, однако — вопрос! — можно ли в части шума обойтись без обучения сети «в лоб», а решить задачу аналитически, так чтобы — вместо обучения сети шуму — получить некоторые условия на веса сети?

Блог им. fxseminar |О различении понятий сигнал, индикатор и прогноз

1. Сигнал это бинарная величина, означающая «открывать ли позицию»: сигнал получает значение ИСТИНА, когда МТС «требует» открыть позицию. Мы, впрочем, не обязаны следовать указанию МТС: возможно, мы используем её как-то иначе, более сложно, чем просто торгуем её (её сигналы).

2. Индикатор это действительная (или «реальная») величина, логически (алгоритмически) «предшествующая» сигналу. Вообще, наши формулы (наша «арифметика») редко бывают строго бинарными, обычно, результаты расчетов это (действительные) числа, которые могут (должны) приводиться к логическим значениям путем сравнения их с некоторым порогом:

Сигнал = (Индикатор > Порог)

Таким образом, связь между сигналом и индикатором параметризовна: в тривиально случае Порог=0; можно также, казалось бы, всегда «привести» эту связь к нулевому порогу, введя в рассмотрение

Индикатор_0 = Индикатор — Порог,

однако по поводу любого Индикатора_0 («ноль-индикатора») всегда возможен вопрос: а что будет с МТС, если выдавать (забирать) из нее сигнал не по условию (Индикатор_0 > 0), а по некоторому порогу, да ещё этим порогом «поиграть». Понятно, что, увеличивая порог, мы, прежде всего, уменьшаем количество сигналов.



( Читать дальше )

Блог им. fxseminar |Ликбез по независимым переменным, степеням свободы и переобученности модели

Пусть есть некоторый поток эмпирических данных. И есть некоторая модель, нацеленная на максимизацию некоторого критерия на этих данных. И в этой модели 100500 параметров (коэффициентов), но значения всех этих параметров получаются («порождаются») в результате вычисления некоторой линейной регрессии, построенной на (работающей с) этих эмпирических данных, то есть эти параметры суть коэффициенты регрессии, а не «ручки, которые мы крутим, настраивая модель».

Вопрос: можно ли в этом случае говорить, что эти 100500 параметров (коэффициентов) являются независимыми переменным и «степеням свободы» модели? И, соответственно, опасаться, что модель «переобучится» — из-за того, что в ней слишком много параметров?

Блог им. fxseminar |Аквариум с торговыми ботами

Размышляю над такой идеей. Создать искусственный мир, населённый ботами, единственной формой существования которых будет торговля некими «акциями» (финансовыми инструментами) на бирже, которая будет встроена в этот мир. То есть этот мир и будет, по сути, одной сплошной биржей. Причём на этой бирже будут (торговать) только эти самые боты, и, соответственно, цены «акций» (понимаемые как протоколы последовательных цен заключённых сделок) будет формироваться только самими этими ботами. И боты будут эти цены видеть и на основании этих цен принимать свои торговые решения — посредством встроенного в каждого бота его собственного алгоритма (принятия решений).
 Добавить туда каких-то «генетических алгоритмов» порождения новых ботов — от успешных имеющихся. Типа, каждый бот периодически порождает «наследника», передавая ему свой алгоритм (который при этом слегка «мутирует») и часть своих денег. И посмотреть, какие торговые алгоритмы там — в результате «финансовой борьбы за выживание» — разовьются. Ну и как там цены будут двигаться — тоже интересно. А потом самые успешные алгоритмы оттуда взять и посмотреть, насколько они на реальных биржевых рынках успешны...

Кто-нибудь делал такое? Кто-нибудь готов такое обсуждать?

....все тэги
UPDONW
Новый дизайн