Блог им. MixStyleTrader

Про текущее состояние AI и LLM

AI силен в тех областях где много данных для обучения (в форме запрос — правильный ответ).

Самый лучший вариант — если данные можно искусственно генерить (например в играх вроде шахмат или Го он играет сам с собой и смотрит какие ходы приводят к победе). Тоже можно проделать и для некоторых математических задач — генерировать уравнения и их решать (можно проверить результат на правильность).  И в программировании такое возможно, но не для всех задач. В таких областях AI становится сильнее человека.

Хороший вариант — если данных просто много. Например распознавать прописные буквы, популярные предметы, популярные болезни на снимках, переводить не очень редкие строки на другие языки. Тут результаты получается тоже сильные, главное найти или собрать хорошие данные для обучения с правильными четкими ответами.

А вот если данных мало или нет четких надежных ответов — то результат будет слабый. Текущие LLM в основе это как раз пример где данных вроде много (тексты со всего интернета), но надежных ответов нет. Ответы не отбираются тщательно вручную (так как их очень много нужно), а просто берутся из текста автоматически (вопрос — начало текста, ответ — что за ним следует). В итоге получается общий интеллект, который сам научился разным областям знаний, где-то больше, где-то меньше — но средний уровень слабый.

А потом разработчики этот слабый общий интеллект дополнительно обучили разным узким навыкам (разделы математики, программирования и т.д.) Притом обучили на хороших проверенных данных и четких ответах. Поэтому современные модели это слабый общий интеллект плюс много довольно неплохих частных интеллектов. И много сил потрачено, чтобы за большим числом узких навыков скрыть общую слабость. Я заметил что разработчики активно изучают запросы пользователей и если видят проблему в чем-то — специально прокачивают этот навык в своих моделях.

Может это и удобно для бизнеса. Слабый общий AI что-то опасное замыслить не сможет — его задача из человеческого запроса правильно понять какие узкие навыки применить для ответа. Поэтому грамотное составление вопросов значительно повышает шанс на успех.

В будущем вероятно откажутся от LLM как базы для общего интеллекта. В идеале чтобы можно было качать один навык, а от этого улучшалось сразу много других. Тогда можно будет выбрать навык где есть возможность генерить данные без ограничений, прокачать его и заодно улучшатся навыки где мало данных. Иначе упремся в тупик: железа много, а данных не хватает.

теги блога MixStyleTrader

....все тэги



UPDONW
Новый дизайн