Блог им. Ilia_Zavialov

Завьялов Илья Николаевич про сценарии для NVIDIA (Ч.2).

Перед тем как вы погрузитесь в изучение статьи, обратите внимание на тот факт что всё упомянутое в ней не является финансовой рекомендацией для принятие более взвешенного решения просьба провести свое собственное исследование.


Теоретическая угроза

Возможно, самое шокирующее событие, о котором говорилось ранее, произошло в последние пару недель. Это новость, которая полностью потрясла мир ИИ и которая доминирует в дискуссиях знающих людей в Twitter, несмотря на полное отсутствие ее в основных СМИ: небольшой китайский стартап под названием DeepSeek выпустил две новые модели, которые по уровню производительности практически соответствуют лучшим моделям OpenAI и Anthropic (обгоняя модели Meta Llama3 и других небольших игроков с открытым исходным кодом, таких как Mistral). Эти модели называются DeepSeek-V3 (по сути, их ответ на GPT-4o и Claude3.5 Sonnet) и DeepSeek-R1 (по сути, их ответ на модель O1 от OpenAI).

Почему все это так шокирует? Прежде всего, DeepSeek — это крошечная китайская компания, в которой, как сообщается, работает менее 200 человек. История гласит, что они начинали как хедж-фонд, занимающийся квантовой торговлей, подобно TwoSigma или RenTec, но после того, как Си Цзиньпин наложил запрет на эту сферу, они использовали свои математические и инженерные способности, чтобы переключиться на исследования в области ИИ. Кто знает, действительно ли все это правда или они просто прикрытие для КПК или китайских военных. Но факт остается фактом: они выпустили два невероятно подробных технических отчета — для DeepSeek-V3 и DeepSeekR1.

Это тяжелые технические отчеты, и если вы не знаете много линейной алгебры, вы, вероятно, мало что поймете. Но что вам действительно стоит попробовать, так это скачать бесплатное приложение DeepSeek в AppStore здесь и установить его, используя учетную запись Google, чтобы войти в систему и попробовать (вы также можете установить его на Android здесь), или просто попробовать его на своем компьютере в браузере здесь. Обязательно выберите опцию «DeepThink», чтобы включить цепочку мыслей (модель R1) и попросить его объяснить некоторые части технических отчетов простым языком.

Это одновременно покажет вам несколько важных вещей:

  • Во-первых, эта модель абсолютно легальна. В бенчмарках ИИ происходит много нелепостей, которые регулярно подтасовываются, чтобы модели демонстрировали отличные результаты в бенчмарках, но затем оказывались в полном провале в реальных тестах. Google, безусловно, является худшим нарушителем в этом отношении, постоянно рассказывая о том, как удивительны их LLM, в то время как они настолько ужасны в любом реальном тесте, что не могут надежно выполнить даже самые простые задачи, не говоря уже о сложных задачах кодирования. С моделями DeepSeek все не так — их ответы последовательны, убедительны и абсолютно на том же уровне, что и у OpenAI и Anthropic.
  • Во-вторых, DeepSeek добилась глубокого прогресса не только в качестве моделей, но и, что более важно, в эффективности обучения и вывода моделей. Благодаря чрезвычайно близкому расположению к аппаратному обеспечению и наложению нескольких отдельных, очень умных оптимизаций, DeepSeek смог обучать эти невероятные модели с помощью GPU значительно более эффективным способом. По некоторым оценкам, более чем в ~45 раз эффективнее, чем другие передовые модели. DeepSeek утверждает, что полная стоимость обучения DeepSeek-V3 составила чуть более 5 миллионов долларов. Это абсолютно ничто по меркам OpenAI, Anthropic и т.д., которые уже в 2024 году превысили отметку в $100 млн за обучение одной модели.

Как такое вообще возможно? Как эта маленькая китайская компания смогла полностью превзойти все самые умные умы в наших ведущих лабораториях ИИ, у которых в 100 раз больше ресурсов, персонала, зарплат, капитала, графических процессоров и т. д.? Разве Китай не должен был пострадать от ограничения Байдена на экспорт GPU? Ну, детали довольно технические, но мы можем хотя бы описать их на высоком уровне. Возможно, просто оказалось, что относительная бедность DeepSeek в обработке данных на GPU стала тем самым критическим ингредиентом, который сделал их более креативными и умными, ведь необходимость — мать изобретения и все такое.

Важным нововведением является сложная система обучения со смешанной точностью, позволяющая использовать 8-битные числа с плавающей запятой (FP8) на протяжении всего процесса обучения. Большинство западных ИИ-лабораторий обучают с «полной точностью» 32-битных чисел (это в основном определяет количество градаций, возможных при описании выхода искусственного нейрона; 8 бит в FP8 позволяют хранить гораздо более широкий диапазон чисел, чем вы могли бы ожидать — он не просто ограничен 256 различными величинами одинакового размера, как в обычных целых числах, а использует умные математические трюки для хранения как очень маленьких, так и очень больших чисел — хотя, естественно, с меньшей точностью, чем в 32 битах). Основной компромисс заключается в том, что если FP32 может хранить числа с невероятной точностью в огромном диапазоне, то FP8 жертвует частью этой точности для экономии памяти и повышения производительности, сохраняя при этом достаточную точность для многих рабочих нагрузок ИИ.

DeepSeek решила эту проблему, разработав умную систему, которая разбивает числа на небольшие плитки для активаций и блоки для весов, а также стратегически использует высокоточные вычисления в ключевых точках сети. В отличие от других лабораторий, которые проводят обучение с высокой точностью, а затем сжимают данные (теряя при этом качество), DeepSeek использует подход, основанный на FP8, что позволяет добиться значительной экономии памяти без ущерба для производительности. При обучении на тысячах GPU такое резкое снижение требований к памяти на один GPU приводит к тому, что в целом требуется гораздо меньше GPU.

Другим важным прорывом является их система предсказания с несколькими лексемами. Большинство моделей LLM на основе трансформеров делают выводы, предсказывая следующий токен — по одному токену за раз. DeepSeek придумал, как предсказывать несколько лексем, сохраняя при этом качество, которое можно получить при предсказании одной лексемы. Их подход достигает примерно 85-90% точности при предсказании дополнительных лексем, что фактически удваивает скорость вывода без особого ущерба для качества. Самое интересное, что они сохраняют полную причинно-следственную цепочку предсказаний, так что модель не просто угадывает, а делает структурированные, контекстуальные предсказания.

Одна из их самых инновационных разработок — то, что они называют Multi-head Latent Attention (MLA). Это прорыв в том, как они работают с так называемыми индексами «ключ-значение (Key-Value)», которые, по сути, представляют собой отдельные лексемы в механизме внимания в архитектуре Transformer. Хотя это уже слишком сложная техническая тема, достаточно сказать, что эти индексы KV являются одним из основных видов использования VRAM в процессе обучения и вывода, а также частью причины, по которой для обучения этих моделей необходимо использовать тысячи GPU одновременно — каждый GPU имеет максимум 96 Гб VRAM, и эти индексы съедают эту память на завтрак.

Их система MLA находит способ хранить сжатую версию этих индексов, которая захватывает важную информацию, используя при этом гораздо меньше памяти. Самое замечательное, что это сжатие встроено непосредственно в процесс обучения модели — это не какой-то отдельный шаг, который нужно сделать, это встроено непосредственно в сквозной конвейер обучения. Это означает, что весь механизм является «дифференцируемым» и может быть обучен непосредственно с помощью стандартных оптимизаторов. Все это работает потому, что эти модели в конечном итоге находят гораздо более низкоразмерные представления базовых данных, чем так называемые «окружающие размеры». Поэтому хранить полные индексы KV расточительно, хотя все остальные именно так и поступают.

В итоге вы не только тратите тонны места, храня гораздо больше чисел, чем нужно, что значительно увеличивает объем памяти для обучения и эффективность (опять же, сокращая количество GPU, необходимых для обучения модели мирового класса), но и в конечном итоге может улучшить качество модели, поскольку может действовать как «регуляризатор», заставляя модель обращать внимание на действительно важные вещи вместо того, чтобы использовать пустую емкость для подгонки к шуму в обучающих данных. Таким образом, вы не только экономите тонну памяти, но и модель может даже работать лучше. По крайней мере, вы не получаете огромного снижения производительности в обмен на огромную экономию памяти, с чем обычно приходится сталкиваться при обучении ИИ.

Они также добились значительного прогресса в эффективности обмена данными с GPU благодаря алгоритму DualPipe и пользовательским коммуникационным ядрам. Эта система разумно перекрывает вычисления и коммуникации, тщательно балансируя ресурсы GPU между этими задачами. Для коммуникации им требуется всего 20 потоковых мультипроцессоров (SMs) GPU, а остальные остаются свободными для вычислений. В результате коэффициент использования GPU оказался гораздо выше, чем в обычных обучающих системах.

Еще одна очень умная вещь, которую они сделали, — это использование архитектуры, известной как Mixture-of-Experts (MOE) Transformer, но с ключевыми инновациями в области балансировки нагрузки. Как вы, наверное, знаете, размер или емкость модели искусственного интеллекта часто измеряется количеством параметров, которые содержит модель. Параметр — это просто число, которое хранит некоторый атрибут модели; либо «вес» или важность конкретного искусственного нейрона по отношению к другому, либо важность конкретного маркера в зависимости от его контекста (в «механизме внимания») и т. д.

Последние модели Llama3 от Meta имеют несколько размеров, например: версия с 1 миллиардом параметров (самая маленькая), модель с 70 миллиардами параметров (наиболее часто используемая) и даже массивная модель с 405 миллиардами параметров. Эта самая большая модель имеет ограниченное применение для большинства пользователей, потому что вам нужно иметь в своем компьютере графические процессоры стоимостью в десятки тысяч долларов, чтобы работать с приемлемой скоростью для выводов, по крайней мере, если вы используете ее в наивной версии с полной точностью. Поэтому большая часть реального использования и ажиотажа вокруг этих моделей с открытым исходным кодом приходится на уровень 8B параметров или 70B параметров с высокой степенью квантования, поскольку именно это может поместиться в графический процессор потребительского класса Nvidia 4090, который сейчас можно купить менее чем за 1000 долларов.

Так почему же все это имеет значение? Ну, в некотором смысле количество и точность параметров говорит о том, сколько необработанной информации или данных хранит модель внутри себя. Заметьте, я не говорю о способности к рассуждениям, или, если хотите, «IQ» модели: оказывается, модели даже с удивительно скромным количеством параметров могут демонстрировать замечательную когнитивную производительность, когда речь идет о решении сложных логических задач, доказательстве теорем в геометрии плоскости, решении задач SAT и т. д.

Но эти маленькие модели не смогут обязательно рассказать вам обо всех аспектах каждого сюжетного поворота в каждом романе Стендаля, в то время как действительно большие модели потенциально могут это сделать. «Цена» такого экстремального уровня знаний заключается в том, что модели становятся очень громоздкими как для обучения, так и для выводов, потому что вам всегда нужно хранить все эти 405B параметров (или любое другое количество параметров) в VRAM GPU одновременно, чтобы сделать любой вывод с помощью модели.

Прелесть подхода MOE-моделей заключается в том, что вы можете разложить большую модель на набор более мелких моделей, каждая из которых знает различные, не пересекающиеся (по крайней мере, полностью) части знаний. Инновацией DeepSeek стала разработка так называемой стратегии балансировки нагрузки «без потерь вспомогательных ресурсов», которая обеспечивает эффективное использование экспертов без обычного снижения производительности, возникающего при балансировке нагрузки. Затем, в зависимости от характера запроса на вывод, вы можете разумно направить вывод к «экспертным» моделям в этой коллекции более мелких моделей, которые в наибольшей степени способны ответить на этот вопрос или решить эту задачу.

Можно представить это как комитет экспертов, обладающих собственными специализированными знаниями: один из них может быть экспертом в области права, другой — в компьютерных науках, третий — в бизнес-стратегии. Так что если поступает вопрос по линейной алгебре, вы не отдаете его эксперту по юриспруденции. Конечно, это очень вольная аналогия, и на практике так не бывает.

Реальное преимущество такого подхода заключается в том, что он позволяет модели содержать огромный объем знаний, не будучи при этом очень громоздкой, поскольку, хотя общее количество параметров у всех экспертов велико, только небольшое подмножество этих параметров «активно» в каждый момент времени, а это значит, что вам нужно хранить только это небольшое подмножество весов в VRAM для того, чтобы делать выводы. В случае DeepSeek-V3, у них есть абсолютно массивная модель MOE с 671B параметров, так что она намного больше, чем даже самая большая модель Llama3, но только 37B из этих параметров активны в любой момент времени — достаточно, чтобы поместиться в VRAM двух потребительских графических процессоров Nvidia 4090 (общей стоимостью менее 2000 долларов), а не требовать один или несколько графических процессоров H100, которые стоят около 40 тысяч долларов каждый.

По слухам, и ChatGPT, и Claude используют архитектуру MoE, а некоторые утечки говорят о том, что GPT-4 имеет в общей сложности 1,8 триллиона параметров, разделенных на 8 моделей, содержащих 220 миллиардов параметров каждая. Несмотря на то, что это гораздо проще, чем пытаться уместить все 1,8 триллиона параметров в VRAM, для запуска модели все равно требуется несколько GPU класса H100 из-за огромного объема используемой памяти.

Помимо того, что уже было описано, в технических документах упоминается еще несколько ключевых оптимизаций. К ним относится чрезвычайно эффективный с точки зрения памяти обучающий фреймворк, который использует тензорный параллелизм, пересчитывает некоторые операции во время обратного распространения вместо того, чтобы хранить их, и разделяет параметры между основной моделью и вспомогательными модулями предсказания. Сумма всех этих инноваций, собранных воедино, привела к цифрам ~45-кратного повышения эффективности, о которых говорят в сети, и я вполне готов поверить, что они соответствуют действительности.

Одним из очень сильных индикаторов того, что это действительно так, является стоимость API DeepSeek: несмотря на почти лучшую в своем классе производительность модели, DeepSeek берет за запросы на вывод через свой API примерно на 95% меньше денег, чем сопоставимые модели от OpenAI и Anthropic. В каком-то смысле это похоже на сравнение графических процессоров Nvidia с новыми пользовательскими чипами конкурентов: Даже если они не так хороши, соотношение цены и качества настолько лучше, что в зависимости от приложения это может быть несомненным выбором, если только вы можете оценить уровень производительности и доказать, что он достаточно хорош для ваших требований, а доступность API и латентность достаточно хороши (до сих пор люди были поражены тем, как хорошо инфраструктура DeepSeek держалась, несмотря на действительно невероятный всплеск спроса из-за производительности этих новых моделей).

Но в отличие от Nvidia, где разница в стоимости является результатом того, что они получают монопольную валовую прибыль в 90%+ на своих продуктах для центров обработки данных, разница в стоимости API DeepSeek по сравнению с API OpenAI и Anthropic может заключаться просто в том, что они почти в 50 раз эффективнее в вычислениях (это может быть даже значительно больше, если говорить о выводах — ~45-кратная эффективность была на стороне обучения). На самом деле, даже не очевидно, что OpenAI и Anthropic делают большую прибыль на своих API-сервисах — возможно, они больше заинтересованы в росте доходов и сборе данных от анализа всех полученных API-запросов.

Прежде чем перейти к делу, я не могу не упомянуть, что многие люди предполагают, что DeepSeek просто лжет о количестве GPU и GPU-часов, потраченных на обучение этих моделей, потому что на самом деле у них гораздо больше H100, чем должно быть, учитывая экспортные ограничения на эти карты, и они не хотят создавать себе проблемы или ухудшать свои шансы на приобретение большего количества этих карт. Хотя это, конечно, возможно, я думаю, что более вероятно, что они говорят правду и что они просто смогли достичь таких невероятных результатов, будучи чрезвычайно умными и творческими в своем подходе к обучению и умозаключениям. Они объясняют, как они это делают, и я подозреваю, что это лишь вопрос времени, когда их результаты будут широко растиражированы и подтверждены другими исследователями в различных других лабораториях.

Модель, которая действительно может думать

Новая модель R1 и технический отчет могут быть еще более потрясающими, поскольку они смогли превзойти Anthropic в создании цепи мышления и теперь являются практически единственными, кроме OpenAI, кто заставил эту технологию работать в масштабе. Но обратите внимание, что предварительная модель O1 была выпущена OpenAI только в середине сентября 2024 года. Это всего лишь ~4 месяца назад! Вы должны помнить, что, в отличие от OpenAI, которая невероятно скрытна в отношении того, как эти модели работают на самом деле на низком уровне, и не раскрывает фактический вес моделей никому, кроме партнеров, таких как Microsoft и других, которые подписывают тяжелые NDA, эти модели DeepSeek являются полностью открытыми и лицензированными. Они выпустили чрезвычайно подробные технические отчеты, объясняющие, как они работают, а также код, который каждый может посмотреть и попытаться скопировать.

С помощью модели R1 компания DeepSeek, по сути, решила одну из священных задач ИИ: заставить модели рассуждать шаг за шагом, не опираясь на массивные наборы данных для супервизии. Эксперимент DeepSeek-R1-Zero показал нечто поразительное: используя чистое обучение с подкреплением и тщательно продуманные функции вознаграждения, они смогли заставить модели развивать сложные способности к рассуждениям совершенно автономно. Речь шла не только о решении задач — модель органично научилась генерировать длинные цепочки мыслей, самостоятельно проверять свою работу и выделять больше вычислительного времени на решение более сложных задач.

Техническим прорывом стал новый подход к моделированию вознаграждения. Вместо того чтобы использовать сложные нейронные модели вознаграждения, которые могут привести к «взлому вознаграждения» (когда модель находит нечестные способы увеличить свое вознаграждение, которые на самом деле не приводят к улучшению реальной производительности модели), они разработали умную систему, основанную на правилах, которая сочетает вознаграждение за точность (проверку окончательных ответов) и вознаграждение за формат (поощрение структурированного мышления). Этот более простой подход оказался более надежным и масштабируемым, чем модели вознаграждения, основанные на процессе, которые пробовали другие.

Особенно интересно то, что во время обучения они наблюдали так называемый «момент ага» — этап, когда модель спонтанно училась пересматривать свой мыслительный процесс в середине пути, когда сталкивалась с неопределенностью. Это поведение не было явно запрограммировано, оно возникло естественным образом в результате взаимодействия между моделью и средой обучения с подкреплением. Модель буквально останавливала себя, отмечала потенциальные проблемы в своих рассуждениях и начинала заново, используя другой подход, и все это без явного обучения.

В полной версии модели R1 эти идеи были развиты путем введения так называемых «холодных стартовых» данных — небольшого набора высококачественных примеров — перед применением методов RL. Они также решили одну из основных проблем в моделях рассуждений: согласованность языка. Предыдущие попытки построить цепочку рассуждений часто приводили к тому, что модели смешивали языки или выдавали несогласованные результаты. DeepSeek решила эту проблему с помощью умного вознаграждения за согласованность языков во время обучения RL, компенсируя небольшое снижение производительности гораздо более читаемыми и согласованными результатами.

Результаты поражают воображение: на AIME 2024, одном из самых сложных математических конкурсов для старшеклассников, R1 показал точность 79,8%, что соответствует модели O1 от OpenAI. На MATH-500 она достигла 97,3%, а на соревнованиях по программированию Codeforces — 96,3 процентиля. Но, пожалуй, самое впечатляющее, что им удалось свести эти возможности к гораздо меньшим моделям: их версия с 14B параметрами превзошла многие модели в несколько раз, что говорит о том, что способность к рассуждению зависит не только от количества параметров, но и от того, как вы обучаете модель обрабатывать информацию.

Разрушение

В последнее время в Twitter и на Blind (сайт корпоративных слухов) ходят слухи, что эти модели застали Meta врасплох и что они работают лучше, чем новые модели Llama4, которые все еще находятся в процессе обучения. Судя по всему, проект Llama в Meta привлек большое внимание со стороны высокопоставленных технических руководителей, и в результате над Llama работают около 13 человек, каждый из которых в отдельности зарабатывает в год больше, чем общая стоимость обучения моделей DeepSeek-V3, которые превосходят его. Как вы объясните это Цукербергу с честным лицом? Как Цук продолжает улыбаться, выкладывая несколько миллиардов долларов Nvidia на покупку 100 тысяч H100, когда лучшая модель была обучена всего на 2 тысячах H100 за чуть более чем 5 миллионов долларов?

Но лучше поверить, что Meta и все остальные крупные лаборатории ИИ разбирают эти модели DeepSeek на части, изучают каждое слово в технических отчетах и каждую строчку открытого кода, который они выпустили, отчаянно пытаясь интегрировать те же самые трюки и оптимизации в свои собственные конвейеры обучения и вывода. И каково же влияние всего этого? Ну, по наивности кажется, что совокупный спрос на вычисления для обучения и вывода должен делиться на какое-то большое число. Может быть, не на 45, а на 25 или даже 30? Потому что все, что вы думали, что вам нужно до выпуска этих моделей, теперь стало намного меньше.

Оптимист может сказать: «Вы говорите о простой константе пропорциональности, о единичном кратном. Когда вы имеете дело с экспоненциальной кривой роста, эти вещи вымываются так быстро, что в итоге не имеют особого значения». И в этом есть доля правды: если ИИ действительно так преобразует мир, как я ожидаю, если реальная польза от этой технологии будет измеряться триллионами, если вычисления в режиме «вывод-время» станут новым законом масштабирования, если у нас будут армии человекоподобных роботов, постоянно выполняющих огромное количество выводов, то, возможно, кривая роста все еще настолько крута и экстремальна, а Nvidia имеет достаточно большое преимущество, что все еще будет работать.

Но Nvidia закладывает в цену множество хороших новостей на ближайшие годы, чтобы эта оценка имела смысл, и когда вы начинаете складывать все эти вещи в общую мозаику, это начинает заставлять меня, по крайней мере, чувствовать себя крайне неловко, платя ~20x предполагаемых выручек 2025 года на их акции. Что произойдет, если вы увидите даже небольшое замедление роста продаж? Что, если он окажется 85% вместо более чем 100%? Что если валовая рентабельность немного снизится с 75 до 70% — все равно невероятно высокая для полупроводниковой компании? 

Подведение итогов

В целом, NVIDIA сталкивается с беспрецедентным сочетанием конкурентных угроз, которые делают ее премиальную оценку все более сложной для оправдания при 20х форвардной выручке и 75% валовой маржи. Предполагаемые «рвы» компании в области аппаратного обеспечения, программного обеспечения и эффективности дают трещины. Весь мир — тысячи умнейших людей планеты, опирающиеся на несметные миллиарды долларов капитальных ресурсов — пытается атаковать их со всех сторон.

На аппаратном фронте инновационные архитектуры от Cerebras и Groq демонстрируют, что преимущество NVIDIA в межсоединениях — краеугольный камень ее доминирования в центрах обработки данных — можно обойти путем радикальных изменений. Чипы Cerebras в масштабе пластины и детерминированный подход к вычислениям Groq обеспечивают потрясающую производительность, не нуждаясь в сложных межсоединениях NVIDIA. Более традиционно, каждый крупный клиент NVIDIA (Google, Amazon, Microsoft, Meta, Apple) разрабатывает пользовательский кремний, который может снизить доход от высокодоходных центров обработки данных. Это уже не экспериментальные проекты — только Amazon создает массивную инфраструктуру с более чем 400 000 пользовательских чипов для Anthropic.

Не менее уязвимым представляется и ров для программного обеспечения. Новые высокоуровневые фреймворки, такие как MLX, Triton и JAX, абстрагируются от важности CUDA, а усилия по улучшению драйверов AMD могут открыть гораздо более дешевые аппаратные альтернативы. Тенденция к более высокоуровневым абстракциям напоминает то, как язык ассемблера уступил место C/C++, что говорит о том, что доминирование CUDA может быть более временным, чем предполагалось. Самое главное, что мы видим появление трансляции кода на базе LLM, которая может автоматически переносить код CUDA для работы на любом аппаратном обеспечении, что потенциально устраняет один из самых сильных эффектов блокировки NVIDIA.

Возможно, самым разрушительным является недавний прорыв в эффективности DeepSeek, который позволил достичь сопоставимой производительности модели при затратах примерно в 1/45 от стоимости вычислений. Это говорит о том, что вся индустрия массово перераспределяет вычислительные ресурсы. В сочетании с появлением более эффективных архитектур выводов на основе цепочечных моделей совокупный спрос на вычисления может оказаться значительно ниже, чем предполагается в текущих прогнозах. Экономические показатели здесь убедительны: если DeepSeek может соответствовать производительности уровня GPT-4 и при этом брать на 95% меньше за вызовы API, это говорит о том, что либо клиенты NVIDIA неоправданно сжигают деньги, либо маржа должна значительно снизиться.

Тот факт, что TSMC будет производить конкурентоспособные чипы для любого хорошо финансируемого клиента, устанавливает естественный потолок для архитектурных преимуществ NVIDIA. Но что еще более важно, история показывает, что рынки в конечном итоге находят способ обойти искусственные узкие места, которые приносят сверхнормальную прибыль. Если сложить все эти угрозы вместе, то можно предположить, что NVIDIA предстоит пройти гораздо более сложный путь к сохранению текущей траектории роста и маржи, чем предполагает ее оценка. С пятью различными векторами атаки — архитектурные инновации, вертикальная интеграция клиентов, абстракция ПО, прорыв в эффективности и демократизация производства — вероятность того, что хотя бы один из них окажет значительное влияние на маржу или темпы роста NVIDIA, кажется высокой. При текущих оценках рынок не учитывает ни один из этих рисков.

  • обсудить на форуме:
  • NVIDIA
#106 по комментариям
1 комментарий
avatar

теги блога Завьялов Илья Николаевич

....все тэги



UPDONW
Новый дизайн