Блог им. Replikant_mih
LLM — новая реальность. Да, осталось много кто про них ещё не особо знает, кто «не верит» и т.д., но им всё сложнее не верить и не замечать.
Я заметил много параллелей между работой LLM и человеческим мозгом. Осознание некоторых параллелей очень порождает многие внутренние рассуждения и инсайты.
Какие параллели и инсайты я вижу:
— Модели очень разные, есть например, рассуждающие модели, а есть не рассуждающие — так же и люди, есть те, кто шустро, быстро что-то делают и хороши в этом, а есть те, кто много думают и хороши в этом. Первые хороши где надо по-быстрому подсуетиться, вторые — где качественно подумать. И «применять» таких людей нужно в релевантных этой составляющей задачах… как и нейросети. Нужен просто фактологический ответ — спроси «быструю», нужно обдумать — спроси «умную».
— У нейросети есть системные промпты. Это и те которые ты прописываешь и те, которые разработчики зашили. О, это отличный аналог всему тому, что у человека на уровне подсознания — это и ценности, убеждения, какие-то яркие предыдущие прожженные в мозгу опыты и т.д. Как общающийся с нейросетью не видит системные промпты, так и общаясь с человеком ты не видишь его собственные «системные промпты». Но они влияют на каждый ответ и каждое его действие! Я своим нейросетям прописываю часто: «отвечай как можно короче, но без потери смысла», если у человека зашито убеждение «много болтают только балаболы» (или что-то подобное) — такой человек будет немногословен тоже.
— Иногда «видишь» ход рассуждения модели. Недавно было что-то такое: был диалог с моделью на какую-то сущность, про какую-то конкретную характеристику сущности. В коде я что-то правил, вроде. И вот после нескольких итераций я говорю: а теперь норм? (в плане можно теперь это использовать?) Норм, отвечает. А я смотрю и понимаю, что эта характеристика теперь норм, но в целом не норм. И я понимаю, что хотя я явно это не говорил, модель интерпретировала «теперь норм?» как «теперь норм по этой характеристике?» и если бы задал первым же вопросом диалога «тут норм?» модель сказала вот это не норм и вот это. Какие тут параллели: ты коммуницируешь с человеком исходя из своего понимания, он исходя из своего, если ты хочешь лучше понимать человека и чтобы он тебя, тебе нужно ставить себя немного на его место в коммуникации, т.е. акцентироваться не на том, что ты говоришь, а на том, что он слышит.
— Некоторые интерфейсы взаимодействия с моделями позволяют выкручивать характеристики, есть там некоторые отвечающие за «творческую составляющую». Что-то типа точка на отрезке между «будь чёткой и надежной», «будь креативной». И эти штуки именно работают больше как ИЛИ/ИЛИ, есть конечное кол-во баллов и ты их распределяешь в каких-то пропорциях — модель не может быть одновременно и очень четкой и креативной. У людей, конечно, так просто эту ручку не покрутить, но где-то на уровне генов или «первичной настройки» в детстве, люди/мозги сильно отличаются по похожим характеристикам. Кто-то очень четкий, ходит по рельсам, фактология, факт-чекинг, проторенные дорожки. Кто-то креативит и ты часто поражаешься: мм, как это можно было тут придумать, как это можно было тут вставить — неожиданно. Да, наверно «неожиданно» это отлично характеризующее здесь слово.
— Если сравнивать все разнообразие LLM и их различия в том числе с учетом и разных настроек (и системных промптов) — можно получить примерно такое же разнообразие мозгов как у людей. Любые комбинации на пересечении всевозможных осей — быстрый/медленный, консервативный/креативный, умный/глупый, эрудированный/не очень и т.д.
Меня наблюдение подобных аналогий, как сказал провоцирует на поразмышлять о природе мозга, мышления. Да, я и без нейросетей понимал, что у человеков есть «системные промпты» и что их можно править, но вот в этих аналогиях ты четче осознаёшь влияние их и размывается убеждение, что «системные промпты» это навсегда и хрен изменишь. В общем часть про «а какие выводы сделать из этих и других аналогий» оставим читателю.
Думаю с развитием рассуждающих и ассоциативно-рассуждающих моделей, «галлюцинаций» могут нарастать))
22022022, Ы, вот кстати, уже начали заглядывать в подкапотные процессы, наверно это позволит обуздать галлюцинации.
3dnews.ru/1120468/uchyonie-nakonets-viyasnili-kak-rabotaet-ii-okazalos-chto-on-moget-vinashivat-plani-isoznatelno-vrat
Т.е. она (кошка) не тратит энергию на анализ изображения, пиксель в пиксель, не пытается сравнить с огромной «базой» тратя энергию. А просто срабатывает образ огурца -> ассоциация образ змей, время сэкономлено, нужно реагировать.
Когда думать или действовать есть у Билла В в Торговом Хаосе. Думать после торговли (работы ). Это левое полушарие (страх и обучение ). Торговать правым полушарием (скорость, смелость и решительность ).
ezomm, Продолжать учится — отличная тема.
А так. по поводу опыта 10К сделок — самое интересное, что два разных человека получив опыт одних и тех же сделок скорее извлекут очень разный опыт из этого.
у него нет контакта с реальностью поэтому он впитывает ошибки разработчиков
а уж про ложку дегтя он точно не знает
так для поболтать сойдет как инструмент типа арифмометра после счет с костяшками
Валерий Осипенко,
>> ИИ не способен обучаться потому что он не знает что такое ошибка
НЕТ
>> он впитывает ошибки разработчиков
ДА
>> так для поболтать сойдет как инструмент типа арифмометра после счет с костяшками
НЕТ
это норм и отл
удачи
yurikon, ))
Ну да, потихоньку они в целом всё время эволюционируют. Но бывают и тектонические сдвиги).
У тебя чё за сдвиги? Классическое «седина в бороду»?))