Постов с тегом "llm": 9

llm


LLM похожи на людей (их мозги)

LLM — новая реальность. Да, осталось много кто про них ещё не особо знает, кто «не верит» и т.д., но им всё сложнее не верить и не замечать.


Я заметил много параллелей между работой LLM и человеческим мозгом. Осознание некоторых параллелей очень порождает многие внутренние рассуждения и инсайты.


Какие параллели и инсайты я вижу:


— Модели очень разные, есть например, рассуждающие модели, а есть не рассуждающие — так же и люди, есть те, кто шустро, быстро что-то делают и хороши в этом, а есть те, кто много думают и хороши в этом. Первые хороши где надо по-быстрому подсуетиться, вторые — где качественно подумать. И «применять» таких людей нужно в релевантных этой составляющей задачах… как и нейросети. Нужен просто фактологический ответ — спроси «быструю», нужно обдумать — спроси «умную».

— У нейросети есть системные промпты. Это и те которые ты прописываешь и те, которые разработчики зашили. О, это отличный аналог всему тому, что у человека на уровне подсознания — это и ценности, убеждения, какие-то яркие предыдущие прожженные в мозгу опыты и т.д.



( Читать дальше )

Как за несколько минут выудить полезную информацию из 180 комментариев с помощью LLM (ChatGPT, DeepSeek, Grok и пр.)

Вводные данные:Интригующий пост Тимофея Мартынова, который моя дофаминовая система не смогла проигнорировать:
«Американцы, похоже, готовы быстро вернуться в Россию чуть что.»

Как за несколько минут выудить полезную информацию из 180 комментариев с помощью LLM (ChatGPT, DeepSeek, Grok и пр.)


Как превратить это в структурированные данные?

Мне хотелось бы получить простую табличку:

Компания Полный текст комментария Статус Объяснение
Schlumberger Сервисмены Schlumberger начали предлагать свои услуги нефтяникам... Пытается вернуться Комментарий упоминает активные шаги по возвращению.
YouTube Ролик заканчивается, и теперь нет антирусской повестки... Пытается вернуться Комментатор отмечает изменения в алгоритме.
General Electric Мне на днях звонил один из директоров GE в Москве... Пытается вернуться Упоминается контакт с московским филиалом компании.
Boeing Boeing хочет продавать детали и самолеты в РФ... Пытается вернуться Комментатор утверждает, что Boeing интересуется рынком.
 


Как получить такие данные за 5 минут?

Реальный ответ: если важна точность, то никак. Но я решил проверить, можно ли быстро вытащить данные с помощью LLM.



( Читать дальше )

Про текущее состояние AI и LLM

AI силен в тех областях где много данных для обучения (в форме запрос — правильный ответ).

Самый лучший вариант — если данные можно искусственно генерить (например в играх вроде шахмат или Го он играет сам с собой и смотрит какие ходы приводят к победе). Тоже можно проделать и для некоторых математических задач — генерировать уравнения и их решать (можно проверить результат на правильность).  И в программировании такое возможно, но не для всех задач. В таких областях AI становится сильнее человека.

Хороший вариант — если данных просто много. Например распознавать прописные буквы, популярные предметы, популярные болезни на снимках, переводить не очень редкие строки на другие языки. Тут результаты получается тоже сильные, главное найти или собрать хорошие данные для обучения с правильными четкими ответами.

А вот если данных мало или нет четких надежных ответов — то результат будет слабый. Текущие LLM в основе это как раз пример где данных вроде много (тексты со всего интернета), но надежных ответов нет. Ответы не отбираются тщательно вручную (так как их очень много нужно), а просто берутся из текста автоматически (вопрос — начало текста, ответ — что за ним следует). В итоге получается общий интеллект, который сам научился разным областям знаний, где-то больше, где-то меньше — но средний уровень слабый.

( Читать дальше )

США опередили Китай в разработке лучшего AI: новая модель из Сиэтла превосходит DeepSeek V3

Уступите место, DeepSeek. В городе появился новый чемпион по искусственному интеллекту — и он американец. В четверг Ai2, некоммерческий исследовательский институт искусственного интеллекта из Сиэтла, выпустил модель, которая, по его утверждению, превосходит DeepSeek V3, одну из ведущих систем китайской компании DeepSeek.

Модель Ai2 под названием Tulu3-405B также превосходит GPT-4o от OpenAI по некоторым показателям AI, согласно результатам внутреннего тестирования Ai2. Более того, в отличие от GPT-4o (и даже DeepSeek V3), Tulu3-405B имеет открытый исходный код, а это значит, что все компоненты, необходимые для его воспроизведения с нуля, доступны бесплатно и имеют разрешённую лицензию.

Представитель Ai2 сообщил TechCrunch, что, по мнению лаборатории, Tulu3-405B «подчёркивает потенциал США в качестве лидера в мировой разработке лучших в своём классе моделей генеративного AI».

«Эта веха — ключевой момент для будущего открытого AI, укрепляющий позиции США как лидера в области конкурентоспособных моделей с открытым исходным кодом, — сказал представитель компании.


( Читать дальше )

Outsmarting LLMs.

Ничего конкретного, так, локальный поток мыслей.

 

Немножко стриггерено соседними постами про AI, убивающий алго, или трейдинг в целом, или рынок, не помню уже.

 

Буду стараться, говоря про AI оперировать понятием LLM, это намного предметней.

 

Исчезнет ли возможность зарабатывать на рынке в течение 10 лет — думаю, нет. Исчезнет ли рынок в течение 10 лет – думаю нет. Станет ли зарабатывать сложнее (в другой формулировке: станет ли рынок эффективней) – думаю, да, это общий тренд, он и до LLM был. Другое дело, что, возможно, не корректно оценивать просто эффективность рынка в вакууме. Корректно оценивать эффективность в контексте имеющихся технологий и знаний, с этой точки зрения эта некая «относительная эффективность» вероятна колеблется в районе константы. Другими словами, ты просто используешь другие технологии, подходы, концепции, вычислительные мощности для извлечения эджа, это делает твои действия в абсолютном значении намного более эффективными, но в относительном ты, по сути, стоишь на месте.



( Читать дальше )

LLM, AI, AGI.

Сознательная часть мозга делает свою работу, но и бессознательная не спит. И она у меня генерировала… опасения на тему AI и будущего, ближайшего и не очень. Сделал некоторый заныр по некотором веткам этой тематики, чтобы получить для себя ответы на некоторые вопросы, в частности в разрезе конкретных рисков и опасений. Немножко причесал представление по этой теме.

 

Ну что, если будущее ещё не наступило, то уже явно подступает.

 

Многое из того, что мы читали в фантастических книжках уже за окном или скоро будет.

 

Что например:

— Разговаривать с костюмом, машиной, компьютером, чем угодно.

— Говорить компьютеру: найди мне то, обобщи мне это, а помнишь, а как ты думаешь, а приблизь картинку и т.д.

— Более мощный AI (а-ля AGI) – тоже не выглядит чем-то далёким.

— Роботы уже прыгают, ходят очень бодро, мелкая моторика уже тоже вполне ух, LLM к ним уже тоже прикручивают, в том числе мультимодальные, это все постепенно становится лучше, в какой-то момент покажут что-то прорывное, каким был в свое время айфон, например.



( Читать дальше )

Монополия Nvidia на рынке LLM в скором времени может закончиться

Монополия Nvidia на рынке LLM в скором времени может закончиться

Демократизация доступа к вычислительным мощностям — один из ключевых драйверов роста развития Generative AI. На сегодняшний день одним из основных сдерживающих факторов для разработки новых больших языковых моделей (LLM), которые обеспечивают работу Generative AI, является крайне высокая цена процессоров (GPU), из-за чего стоимость разработки одной модели может превышать $100M.

Ключевой причиной крайне высоких цен является резкая нехватка процессоров на рынке: в 2023 единственным чипом, адаптированном под создание больших фундаментальных моделей, был H100 от Nvidia, стоимость которого превышает $40k за единицу, в то время как для обучения и работы таких моделей, как Anthropic Claude или GPT-4 OpenAI, требуются тысячи GPU.

Однако рынок начинает меняться и в скором времени монополия Nvidia может закончиться. На этой неделе был представлен новый процессор Intel Gaudi 3 разработанный специально для обучения Generative AI. Согласно пресс-релизу, производительность нового чипа Intel в 1.7х превосходит результаты Nvidia H100 и в 1.3х превышает заявленные результаты H200, нового поколения процессоров Nvidia, релиз которых запланирован в середине 2024.

( Читать дальше )
  • обсудить на форуме:
  • NVIDIA

VK использует пользовательский контент для создания генеративной нейросети - Ъ

VK разработала собственную языковую модель (LLM) для генерации текстов, используя комментарии из открытых групп «ВКонтакте». Первые функции тестируются в сервисах Mail.ru, а также аналогичные технологии изучаются в «Яндексе». Основной упор делается на автоматизацию рабочих задач, а не на добавление функций в соцсеть.

Разработка LLM осуществлялась на основе открытых текстов из интернета и публичных данных «ВКонтакте». Эксперты отмечают перспективы использования таких моделей в рабочих сервисах. Тестирование происходит в сервисах Mail.ru, а также рассматривается в «Яндексе». VK также разрабатывает продукты для госслужащих.

В долгосрочной перспективе VK рассматривает внедрение технологии в рабочие сервисы. Компания располагает вычислительными мощностями для тренировки LLM и имеет достаточные ресурсы для этого. Основным направлением разработки является автоматизация рабочих задач.

Источник: www.kommersant.ru/doc/6533556
  • обсудить на форуме:
  • ВК | VK

Способность больших языковых моделей генерировать текст также позволяет им планировать и рассуждать. Что будет дальше?

Способность больших языковых моделей генерировать текст также позволяет им планировать и рассуждать. Что будет дальше?

Квантовая физика как сонет Шекспира. 

Торговая теория, объясненная пиратом. 

Детская сказка о космическом динозавре. 

Люди с удовольствием просили современных чат-ботов создавать всевозможные необычные тексты. 


Некоторые запросы оказались полезными в реальном мире — например, маршруты путешествий, школьные сочинения или компьютерный код. 


Современные большие языковые модели (ЛМС) могут генерировать их все, хотя тем, кто уклоняется от домашней работы, следует остерегаться: модели могут ошибаться в некоторых фактах и склонны к полетам фантазии, которые их создатели называют «галлюцинациями».


Если не принимать во внимание случайные сбои, все это представляет собой огромный прогресс. Еще несколько лет назад такие программы были бы научной фантастикой. Но штамповка письма по запросу может оказаться не самой важной способностью llm. 

Их умение генерировать текст позволяет им действовать как универсальные логические механизмы. Они могут следовать инструкциям, генерировать планы и отдавать команды для выполнения другими системами.



( Читать дальше )

....все тэги
UPDONW
Новый дизайн