BeyG, я правильно понимаю, что чем больше самолетов поставлено в другие страны, то самолет летает выше, быстрее, незаметнее и берет больше ракет и бомб?
BeyG, так я и написал, что в рамках политики «таргетирования инфляции» и у меня «мучения» и у индекса Мосбиржи. А с 2018-го все в предпоследней таблице. А в последней видно в чем конкретно «мучения» с сентября 2016-го.
BeyG, тут в другом вопрос, реальной стоимости ?
Компания можно оценивать хоть хулиард, но если ее прибыль 20 ярдов, то извините.
Если по простому, не может тюльпан стоить дом.
BeyG, да любые N цифр являются значениями многочлена N+1 степени от одной переменной.Только смысл в этом для прогноза (N+1)-й цифры нуль. Поэтому для точности того, что нашлось, надо, как минимум сравнить точность прогноза на том, что ложилось в обучение с тем, что обучение не видело. А уж много на входе или мало, это для решения задачи получения одинаковой точности прямого влияния может и не иметь.
А ведь если наблюдаемая последовательность аекторов — последовательность с убывающей зависимостью по времени или «расстоянию», то дальние по времени и «расстоянию» наблюдения из обучения вообще лучше убрать, так как они точно на обучении приведут к ошибочному приближению выхода.
«Расстояние» в кавычках потому что в нем можно отказаться от одного из стандартных условия определения.
BeyG, С точки зрения математики, обучение нейронных сетей — это многопараметрическая задача нелинейной оптимизации;
Многослойный перцептрон с сигмоидами, на вход которого подавались приращения логарифмов дневных цен индекса Доу-Джонса и всех акций, его составляющих, за 20 прошлых дней, а выход — приращение логарифма Доу-Джонса на следующий день.
Абсолютно нерабочая задача для такой нейросети с такими входами.
BeyG, эта метрика не примитивная, а самая простая из ключевых для нестационарных случайных величин. Если с ней ничего не получается, то надо выбросить сделанное на помойку, а если получилось, то стоит и еще кое-что разобрать.
BeyG, а нейросеть и есть только функция отображения входов на выход. И вопрос о ее свойствах — ключевой. А Вы так и не ответили на мой вопрос об СКО ошибок. Он то как раз ключевой в использовании нейросетей с нестационарными случайными входами, как и любой функции.
BeyG, убирать нестационарность путем подгонки параметров функции от нестационарной последовательности — это априорная ошибка. А нейросеть всегда считал подгонкой параметров функции на обучающей выборке. Или в этом я уже не прав?
BeyG, условие обучения, чтобы СКО ошибки на обучающей выборке и тестирующей были статистически идентичны я не видел нигде, кроме SPSS. Не подскажите в каком еще ПО это уже реализовано?