Вопрос по MLP -- обучению многослойного персептона
Пусть мы хотим научить MLP (Multilayered perceptron) отличать отрезки (например, длиной 255 значений) некоторого полезного сигнала (например, первых разностей ценового ряда) от отрезков «белого шума». То есть, банально, если на входе сети (255 входных нейронов) полезный сигнал, то на выходе мы хотим получать сигнал как можно ближе (в идеале равный) 1, а если на входе «шум», то 0.
Понятно, что мы можем сгенерировать столько образцов белого шума, сколько захотим, однако — вопрос! — можно ли в части шума обойтись без обучения сети «в лоб», а решить задачу аналитически, так чтобы — вместо обучения сети шуму — получить некоторые условия на веса сети?
То, что сеть наверняка не научится идеально дискриминировать (различать) отрезки первых разностей ценовых рядов и (отрезки) шум, — я понимаю.
Мм, движуха интересная, обучить модель отличать белый шум от не белого. Потому что не белый шум, он может разной степени зашумленности, если модель что-то определит как шум, скорее всего туда лучше не соваться сейчас.
Может лучше эту тему поразвивать?
Про вопрос «а решить задачу аналитически» — не понял зачем это нужно, если нагенерить шума вообще не проблема.
Replikant_mih, «модель» («его найдет») — какая модель, нейронная сеть? Взаимоотношения НС и аналитических решений известны независимо от этой конкретной моей задачки: НС устремляются к каким-то экстремумам, не менее того, но и не более.
Ну и поскольку задачка наполовину — в части одного из двух классов входных векторов — точно не аналитична, то о каком «найдет аналитическое решение» вообще можно тут говорить?