Вкратце про Generative AI — что это?
GPT — это сокращение от Generative Pre-trained Transformer «генеративный предварительно обученный трансформер». Это специальный класс крупных нейросетей, который появился совсем недавно — в 2017 году, а тот самый ChatGPT стал доступен общественности в прошлом году и сразу завоевал популярность благодаря своим качественным ответам, невиданным ранее у нейросетей. Сейчас GPT-нейросети могут генерировать текст, качественно переводить языки, создавать изображения и музыку подчас неотличимые от профессиональной работы. И все это на новом качественном уровне, что открывает новую степень полезности для внедрения во все области деятельности человека.
Почему это очень ресурсоемко
Для получения качественно лучших результатов ChatGPT использует 175 млрд параметров, это очень много. Вам нужно 5 карт Nvidia A100 80Gb только, чтобы загрузить модель. А скорость генерации текста будет порядка 15 слов в секунду.
Стоимость одной такой карты A100 —
$16,895, то есть минимум денег только на карты это $85K.
Это только на запуск, а если Вы хотите натренировать свои модели на своих материалах и тонко подстроить результаты, то это будет очень дорого. Так, для GPT-3(предшественник ChatGPT) был построен суперкомпьютер с 285,000 CPU ядрами и 10,000 GPU, что ставит его на 5-е место в TOP500 самых быстрых суперкомпьютеров мира.
GPT-4, который уже доступен и существенно превосходит возможности ChatGPT во многих областях, имеет более триллиона параметров. В этом вся соль — чем больше параметров и качественнее датасет у нейросети, тем качественнее получается результат(текст, картинки, видео, звуки) на выходе. По сути, ближайшие годы рынок будет выкупать все доступные быстрые AI-чипы, чтобы завоевать лидерство.
Кто папа в доме?
Одни из самых мощных GPU на текущий момент для Generative AI — это
Nvidia H100.
Ведь кому, как не им быть лидерами, если они производят
80% всех GPU.
Их закупают многие десятками тысяч — Oracle, Amazon, Microsoft, OpenAI, Stability AI и масса других, даже Сбербанк закупал. Фактически — это текущий стандарт для разработчиков, который, в свою очередь поддерживает софтовую платформу CUDA(тоже от Nvidia).
Также у многих компаний есть свои наработки чипов, например у Google это TPU, это специально спроектированный для AI чип. Его купить нельзя и Google зарабатывает на предоставлении доступа через Cloud. В целом, он значительно проигрывает H100 по производительности, но Google продолжает регулярно выпускать новые версии чипа. Другим компаниям тоже до лидера далеко. Создать AI чип несложно, сложно создать очень быстрый чип.
H100 производится на фабриках TSMC по 4 нм техпроцессу, то есть практически на пике текущих возможностей.
H100 содержит значительное количество RAM(от 80GB до 188GB), которую поставляет
SK hynix.
К другим картам Nvidia память поставляет Micron, поэтому это тоже бенефициар, ведь игровые карты тоже используются для Generative AI.
А что же AMD, второй крупнейший производитель GPU?
В начале этого года AMD анонсировали специальный чип
MI300 для датацентров, который будет конкурировать с H100. Он должен появиться во второй половине этого года, то есть уже скоро. Проблема с чипами AMD одна — слабая поддержка сторонним софтом для Generative AI. То есть здесь тоже должен произойти какой-то кардинальный сдвиг. Есть слухи, что
AMD совместно с Microsoft создает для последнего специальный чип. Что позволит AMD начать массовую экспансию в AI.
Кстати, AMD также использует фабрики TSMC для производства своих чипов.
Из чего можно сделать вывод, что текущие сливки по чипам для Generative AI будет собирать Nvidia и поставщики компонентов для их карт. Если AMD поднапряжется, то тоже сможет впрыгнуть в этот уходящий поезд, все возможности для этого есть.
Итого, прямые бенефициары Generative AI:
1. Nvidia
2. TSMC
3. SK hynix
4. Micron
5. Google
6. AMD