Ответы на комментарии пользователя |-

Мои комментарии:в блогах в форуме
Ответы мне:в блогах в форуме
Все комментарии: к моим постам
|-, я вообще не расстроился, наоборот, в случае восстановления индекса, вклады будут далеко позади в том числе и облигации
avatar
  • 08 ноября 2024, 09:34
  • Еще
|-, военкоматам думаете прям здоровые нужны?
avatar
  • 06 ноября 2024, 17:44
  • Еще
|-, Возможно у них меньше амбиций просто и запросы скромнее, что и делает их счастливее.
avatar
  • 03 ноября 2024, 11:53
  • Еще
|-, не рассматриваю
avatar
  • 02 ноября 2024, 01:29
  • Еще
|-, если б за это платили бы 😅
Я риелтор… и в своих статьях я знакомлю инвесторов с имеющимися на рынке Сочи предложениями.
avatar
  • 12 октября 2024, 09:38
  • Еще
|-, поживем увидим. очень скоро
avatar
  • 09 октября 2024, 10:05
  • Еще
|-, вот смешно

Статистические органы США стали активно использовать приём ухудшения старых данных для демонстрации текущих позитивных тенденций.

Это, к слову, тоже очень показательная тенденция, которая ни о чём хорошем не говорит.

Отметим ещё, что слово «рецессия» совершенно не подходит для описания реальности,
в США уже почти три года идёт структурный кризис с темпами спада примерно 0.5% в месяц....

avatar
  • 25 сентября 2024, 14:12
  • Еще
|-, Вот алгоритм 4го ГПТ. Но я не проверял, может так что-то другое используется 

Byte Pair Encoding (BPE) — это алгоритм для токенизации текста, который изначально был разработан для сжатия данных, но в последние годы стал популярным в области обработки естественного языка (NLP) для создания подсловных токенов. Вот как он работает и какие его основные характеристики:

Основные этапы алгоритма BPE:

  1. Инициализация:

    • Начинаем с набора символов (например, букв) и считаем частоту каждого символа в тексте.
  2. Поиск пар символов:

    • На каждом шаге алгоритм ищет наиболее часто встречающуюся пару соседних символов. Например, в словах «low», «lower» и «new» пара «lo» может быть наиболее частой.
  3. Замена пар:

    • Самая частая пара символов заменяется новым токеном, который представляет эту пару. Это создаёт новый «словарь» токенов, который включает как отдельные символы, так и новые пары.
    • Например, пара «lo» может быть заменена на новый токен «X».
  4. Повторение:

    • Процесс повторяется: после каждой замены снова вычисляется частота всех пар символов, и процесс продолжается до достижения заранее определённого количества токенов или до тех пор, пока не останется только один токен.
  5. Финальная токенизация:

    • После завершения процесса BPE текст может быть разбит на токены, которые могут быть как одиночными символами, так и созданными подсловами.

Преимущества BPE:

  • Сокращение размера словаря: Вместо того чтобы хранить каждое слово отдельно, BPE позволяет сохранять комбинации символов, что уменьшает размер словаря.
  • Справление с редкими словами: BPE позволяет разбивать редкие слова на более частые подслова, что улучшает обработку таких слов в языковых моделях.
  • Контекстуальная осведомлённость: Позволяет модели лучше понимать морфологию слов, что особенно полезно для языков с богатой морфологией.

Недостатки BPE:

  • Неоптимальная длина токенов: В некоторых случаях BPE может создавать слишком длинные токены, что может увеличить вычислительные затраты.
  • Потеря контекста: Если слишком много подслов, это может привести к искажению значения оригинальных слов.

BPE широко используется в современных языковых моделях, таких как GPT и BERT, для повышения качества обработки текста и улучшения результатов в задачах NLP.

avatar
  • 24 сентября 2024, 14:25
  • Еще
|-, Короче думай как хочешь. Я наводку дал. 
avatar
  • 24 сентября 2024, 14:17
  • Еще
|-, Да он не разбивает на буквы. Это ты видишь буквы, а он свой текст разбивает на токены и это совсем не слова, какие то слова вообще выбрасывают из текста. 
avatar
  • 24 сентября 2024, 14:09
  • Еще
|-, я объяснил почему так выходит. Но можешь и дальше тратить время на выяснения. Спроси его лучше что такое токенизация и как ее используют для тренировке моделей и какие проблемы возникают. 
avatar
  • 24 сентября 2024, 13:37
  • Еще
|-, это ничего не значащий пример. Современные модели работают с токенами- кусками слов, поэтому им тяжело ответить на вопрос про количество букв. С ростом мощностей перейдут на буквы и проблема отпадет.
avatar
  • 24 сентября 2024, 12:16
  • Еще
|-, А еще президент, правительство и депутаты ездят в натовских машинах и носят натовские костюмы и часы!
avatar
  • 05 августа 2024, 20:46
  • Еще
|-, вот правильная мысль!
а то народ тут не понимает

smart-lab.ru/profile/Fogel/



avatar
  • 02 августа 2024, 23:26
  • Еще
|-, Это временно.
avatar
  • 02 августа 2024, 23:24
  • Еще
Выберите надежного брокера, чтобы начать зарабатывать на бирже:
....все тэги
UPDONW
Новый дизайн