Блог им. Replikant_mih |LLM похожи на людей (их мозги)

LLM — новая реальность. Да, осталось много кто про них ещё не особо знает, кто «не верит» и т.д., но им всё сложнее не верить и не замечать.


Я заметил много параллелей между работой LLM и человеческим мозгом. Осознание некоторых параллелей очень порождает многие внутренние рассуждения и инсайты.


Какие параллели и инсайты я вижу:


— Модели очень разные, есть например, рассуждающие модели, а есть не рассуждающие — так же и люди, есть те, кто шустро, быстро что-то делают и хороши в этом, а есть те, кто много думают и хороши в этом. Первые хороши где надо по-быстрому подсуетиться, вторые — где качественно подумать. И «применять» таких людей нужно в релевантных этой составляющей задачах… как и нейросети. Нужен просто фактологический ответ — спроси «быструю», нужно обдумать — спроси «умную».

— У нейросети есть системные промпты. Это и те которые ты прописываешь и те, которые разработчики зашили. О, это отличный аналог всему тому, что у человека на уровне подсознания — это и ценности, убеждения, какие-то яркие предыдущие прожженные в мозгу опыты и т.д.



( Читать дальше )

Блог им. Replikant_mih |Пообщался с ChatGPT-3 о том... как работает ChatGPT-3.

Не буду пока писать много о модели, о том, как я вижу будущее у всего этого, о том, какая польза может быть сейчас. Об этом всём позже.

Потестил чего алгоритм может, потестил как модель помнит предыдущую чать диалога, задавал каверзные вопросы и т.д. 

Что могу сказать. Тест Тьюринга где-то сзади пыль от убежавшей вперед модели глотает.

Как минимум это очень увлекательно. И нет, это не только игрушка, развлекушка, веселушка. Уже в таком виде эти штуки могут очень много. А через какое-то время смогут пипец как много.

Процесс общения (язык не поворачивается назвать это просто взаимодействием) проходил например так: в какой-то момент решил спросить, на каких принципах устроена модель, дальше стало любопытно, она запоминает инфу (факты, например) или как-то по-другому делает это. Модель сказала, что генерализует скорее, чем запоминает. Дальше я спросил дату рождения какого-то чувака известного, она ответила. Я ей говорю: как же так, ты же генерализуешь, как можно нагенерализовать дату рождения какого-то чувака если не знаешь её, она стала оправдываться: ой вы меня не так поняли, и стала уточнять понятие «генерализую», мол я много упоминаний этого факта встречала, и вот у меня «генерализовалось» воспоминание, дальше я спросил, а если бы факт упоминался в обучающей выборке 1 раз он могу бы «генерализоваться» чтобы модель на соответствующий вопрос могла привести в качестве ответа этот факт, она говорит да и как-то тоже это объяснила, но тут я уже сам сломался. 

( Читать дальше )

....все тэги
UPDONW
Новый дизайн