Ответы на комментарии пользователя BeyG

Мои комментарии:в блогах в форуме
Ответы мне:в блогах в форуме
Все комментарии: к моим постам
BeyG, я правильно понимаю, что чем больше самолетов поставлено в другие страны, то самолет летает выше, быстрее, незаметнее и берет больше ракет и бомб?
BeyG, какая разница -если ф-35 до сих пор с недоработками и даже в плохую погоду его не выпускают на взлет… падают они…
avatar
  • 10 февраля 2025, 17:05
  • Еще
BeyG, так я и написал, что в рамках политики «таргетирования инфляции» и у меня «мучения» и у индекса Мосбиржи. А с 2018-го все в предпоследней таблице. А в последней видно в чем конкретно «мучения» с сентября 2016-го.
avatar
  • 17 января 2025, 13:52
  • Еще
BeyG, тут в другом вопрос, реальной стоимости ? 
Компания можно оценивать хоть хулиард, но если ее прибыль 20 ярдов, то извините. 
Если по простому, не может тюльпан стоить дом. 
avatar
  • 21 ноября 2024, 18:59
  • Еще
BeyG, а сын чаcом не брошен? Вместе с его матерью.
avatar
  • 24 октября 2024, 17:37
  • Еще
BeyG, да любые N цифр являются значениями многочлена N+1 степени от одной переменной.Только смысл в этом для прогноза (N+1)-й цифры нуль. Поэтому для точности того, что нашлось, надо, как минимум сравнить точность прогноза на том, что ложилось в обучение с тем, что обучение не видело. А уж много на входе или мало, это для решения задачи получения одинаковой точности прямого влияния может и не иметь.

А ведь если наблюдаемая последовательность аекторов — последовательность с убывающей зависимостью по времени или «расстоянию», то дальние  по времени и «расстоянию» наблюдения из обучения вообще лучше убрать, так как они точно на обучении приведут к ошибочному приближению выхода.

«Расстояние» в кавычках потому что в нем можно отказаться от одного из стандартных условия определения.
avatar
  • 15 октября 2024, 23:37
  • Еще
BeyG, С точки зрения математики, обучение нейронных сетей — это многопараметрическая задача нелинейной оптимизации;

Многослойный перцептрон с сигмоидами, на вход которого подавались приращения логарифмов дневных цен индекса Доу-Джонса и всех акций, его составляющих,  за 20 прошлых дней, а выход — приращение логарифма  Доу-Джонса на следующий день.

Абсолютно нерабочая задача для такой нейросети с такими входами.
avatar
  • 15 октября 2024, 22:13
  • Еще
BeyG, эта метрика не примитивная, а самая простая из ключевых для нестационарных случайных величин. Если с ней ничего не получается, то надо выбросить сделанное на помойку, а если получилось, то стоит и еще кое-что разобрать.
avatar
  • 15 октября 2024, 20:42
  • Еще
BeyG, а нейросеть и есть только функция отображения входов на выход. И вопрос о ее свойствах — ключевой. А Вы так и не ответили на мой вопрос об СКО ошибок. Он то как раз ключевой в использовании нейросетей с нестационарными случайными входами, как и любой функции.
avatar
  • 15 октября 2024, 19:53
  • Еще
BeyG, убирать нестационарность путем подгонки параметров функции от нестационарной последовательности — это априорная ошибка. А нейросеть всегда считал подгонкой параметров функции на обучающей выборке. Или в этом я уже не прав?
avatar
  • 15 октября 2024, 17:15
  • Еще
BeyG, условие обучения, чтобы СКО ошибки на обучающей выборке и тестирующей были статистически идентичны я не видел нигде, кроме SPSS. Не подскажите в каком еще ПО это уже реализовано?
avatar
  • 15 октября 2024, 17:10
  • Еще
Выберите надежного брокера, чтобы начать зарабатывать на бирже:
....все тэги
UPDONW
Новый дизайн