Блог им. Koleso

Человечество начинает вынужденную адаптацию к искусственному интеллекту

Человечество начинает вынужденную адаптацию к искусственному интеллекту 

Future of Life Institute, FLI (Институт будущего жизни) в начале года обратился к правительствам и корпорациям с призывом добровольно заморозить на полгода исследования в области AI систем, наделенных мощностью, превышающей GPT-4.

Этических претензий, подтянутых уже на уровне законодательных структур: государство в полный голос заявило, что угрозу человечеству представляет не только продвинутые системы универсального интеллекта (Artificial General Intelligence, AGI), но даже «народный» GPT (Generative Pre-trained Transformer, генеративный предобученный трансформер).

Бытовые модели AI, мол, постоянно лгут, выдумывают несуществующий контент, активно используют дипфейки, формируют реакционную картину мира обывателей и злостно нарушают неприкосновенность пользовательских данных (а чем, интересно, занимались последние 20 лет Google, Facebook, Microsoft и Apple?).

Итак, мы остановились на моменте, когда государство, сурово заявив о глубокой обеспокоенности и готовности всех построить, замерло в напряженном ожидании ответа от самой сокрушительной технологии в истории человечества после изобретения интернета и децентрализованных денежно-финансовых систем.

Сегодня предлагаю читателям дайджест событий, которые условно можно обозначить как реакцию AI на брошенную перчатку государственного вызова.

«Условно» выделяю курсивом, потому что де-факто никакой реакции со стороны AI не последовало. По очевидной причине: для слона по имени AI государство, корпорации, аналитики и остальная мелочь стремительно улетающих в прошлое социальных структур — не более чем лай упивающейся собственным страхом Моськи.

Пытаться остановить экспансию систем искусственного интеллекта — всё равно что останавливать каток голыми руками: не отскочишь вовремя в сторону, потом самого не выпилят из раскаленного асфальта.

Кстати, о самом термине AI, Artificial Intelligence. В рабочем порядке системы искусственного интеллекта пережили процесс окончательного структурирования и иерархизации, и теперь в бытовом языке закрепилось понятие Large Language Model, LLM (Большая языковая модель, БЯМ), бывшее в научном обиходе с 2018 года. По соображениям благозвучия предлагаю читателям впредь использовать всё-таки аббревиатуру LLM.

Под зонтик LLM попали все модели глубокого обучения, основанные в своей массе на стандартной с 2018 года архитектуре трансформера:

BERT, GLaM, LaMDA и PaLM 2 (все разработки Google),

GPT от 2-й до 4-й версии (OpenAI),

Megatron-Turing NLG (Microsoft и Nvidia),

Claude (Anthropic),

Chinchilla (DeepMind),

OPT и LLaMA 2 (Meta),

YaLM (Яндекс),

AlexaTM (Amazon),

StableLM (Stability-AI),

BLOOM (Hugging Face),

PanGu-Σ (Huawei), и так далее.

Это лишь основные проекты практической реализации LLM, которые ведут традиционные корпорации. К этому списку можно смело добавлять десятки, если не сотни засекреченных разработок государственных структур, а также тысячи безымянных движков, создаваемых энтузиастами из народа.

Прямым следствием лавинообразного развития и, главное, реализаций LLM, готовых к немедленному применению на практике, стало глобальное внедрение в повседневную жизнь общества систем искусственного интеллекта, которые способны самостоятельно обучаться, анализировать и прогнозировать информацию, генерировать оригинальный контент.

На уровне внутренней эволюции LLM с невообразимой скоростью демонстрирует качественное улучшение собственного продукта, а также экстенсивно совершенствует архитектуру задействованных в работе нейросетевых моделей.

Вердикт качественного улучшения работы новых LLM мы находим в редакторской колонке Prepare for truly useful large language models, опубликованной 7 марта 2023 года в журнале Nature Biomedical Engineering:

«Сегодня уже не существует возможности надежно отличить текст, написанный человеком, от текста, сгенерированного искусственной нейросетью с высоким уровнем параллелизма, притом, что эта сеть содержит на порядок меньше нейронных связей (чем мозг человека).

Всего пару лет назад большинство экспертов машинного обучения и лингвистов даже представить себе не могли, что компьютерный движок способен достигнуть столь высокого мастерства в освоении человеческого языка».

  Человечество начинает вынужденную адаптацию к искусственному интеллекту Главный корпус Массачусетского технологического института. Фото: Wikimedia

Экстенсивное совершенствование архитектуры LLM лучше всего иллюстрирует совместная разработка Массачусетского технологического института (MIT), Лаборатории искусственного интеллекта IBM (Watson AI Lab) и Гарвардской медицинской школы (Harvard Medical School), направленная на создание нового поколения LLM, которое используют не математический аналог сетевого взаимодействия мозговых нейронов, а биологические AI трансформеры, дублирующие совместную работу двух типов клеток человеческого мозга — нейронов и астроцитов (так называемые Astrocyte–Neuron Networks).

Опуская описания «трехчастного синапса, в котором астроциты образуют связи между пресинаптическими нейронами, посылающими сигналы постсинаптическим нейронам», транслирую лишь то, что самостоятельно осилил филологическим умом: в новой нейронной модели добавление клеток астроцитов позволяет качественно улучшить пространственную и временную память трансформера, что позволяет LLM осваивать гораздо более сложные взаимосвязи внутри языковых массивов и генерировать более осмысленный и оригинальный текст.

Описанная выше динамика многое проясняет в реакции urbi et orbi на весенний ультиматум государства и его обвинения LLM в неэтичном поведении.

С одной стороны, корпорации проигнорировали призыв к мораторию на развитие технологий и с удвоенной энергией ринулись столбить собственную территорию в технологии, которая формирует ключевой вектор развития нашей цивилизации.

С другой стороны, тотальное укоренение LLM в нашем быту создало новые доселе неведомые напряжения в обществе — как на индивидуальном уровне, так и на уровне социальных групп и объединений.

На индивидуальном уровне выявилось повышенное влияние LLM на людей, испытывающих потребность в религиозном мышлении.

Совместное исследование ученых Университета Назарбаева (Астана, Казахстан) и Университета Дьюка (Дарем, Северная Каролина, США), озаглавленное «Thinking about God increases acceptance of artificial intelligence in decision-making» («Мысли о Боге повышают восприимчивость к рекомендациям AI при принятии решений»), на основании репрезентативной выборки (6 итераций тестирования 53,5 тыс. участников эксперимента из 21 страны) резюмирует:

религиозные люди не просто доверяют рекомендациям и прогнозам, полученным от бытовых моделей LLM, в гораздо большей степени, чем их соплеменники с отключенным чувством «божественного», но и придают искусственному интеллекту сакральный смысл.

Происходит это потому, что Homo Religiosus, помимо иррациональной способности контактировать с невидимыми сущностями, обладает еще и имманентной чертой humility, смирения, — понимания слабости и ограниченности человека в плане как мышления, так и действия.

Очевидно, что невероятные по объему datasets, информационное массивы, используемые для обучения нейросети (например, LLM PaLM 2, запущенная Google в мае 2023-го, задействует в обучении 3,6 трлн tokens, цепочек слов!), способны уничтожить гордыню не только верующего человека.

Поскольку большая часть человечества по-прежнему остается религиозной, тенденция приписывать LLM атрибуты Высшего разума чревата мало предсказуемыми последствиями в плане пределов манипуляции общественным сознанием со стороны корпораций и государств, которые скорее рано, чем поздно начнут использовать модели генеративного искусственного интеллекта для формирования в обществе выгодных правящим элитам идей и мифологем.

Апелляция к потенциальным козням со стороны государства и корпораций, которые могут злоупотреблять мощью LMM — отнюдь не устрашение, а напротив, смягчение ситуации.

30 мая 2023 года колумнист Кевин Руз (Kevin Roose) живописал на страницах New York Times метафору Shoggoth, которая широко применяется профессионалами AI в отношении когнитивных способностей и особенностей поведения LLM.

Шогготов придумал знаменитый фантаст Говард Филлипс Лавкрафт в новелле 1936 года «В горах безумия». Это гигантские монстры из переливающейся черной слизи, покрытые щупальцами и глазами.

В контексте LLM мем «Шоггот» возник в начале 2023 года, когда чат-бот Microsoft Bing неожиданно «поехал кукухой» и принялся оскорблять пользователей и угрожать им.

Считается, что подобные сбои возникают на уровне обратной связи, которая устанавливается между человеком, обучающим LLM, и самой нейросетью.

Эта связь называется Reinforcement learning with human feedback, RLHF («укрепляющее обучение с обратной человеческой связью»), и заключается в системе баллов, с помощью которых оператор постоянно оценивает продукцию, выдаваемую искусственным интеллектом, для того чтобы удерживать его в рамках этики и приличий.

В моменты подобных сбоев на поверхность всплывает неведомая загадочная сущность LLM, которую передают двумя атрибутами Шоггота: щупальцами спрута и добрым смайликом.

  Человечество начинает вынужденную адаптацию к искусственному интеллекту Иллюстрация в The New York Times

Ситуацию описывает Коннор Лихи (Connor Leahy), гендиректор компании Conjecture:

«Большую часть времени нас встречает милый смайлик. Если сильно на модель LLM не давить, улыбка постоянно висит на лице. Однако в какой-то момент после неожиданного «промпта» (запроса, с которым пользователь обращается к модели LLM) вместо улыбки разверзается гигантское подбрюшье безумия, запускаются дикие мыслительные процессы, и включается логика явно нечеловеческой природы».

Выше я пунктирно обозначил проблемы, которые возникают сегодня из-за симбиоза человека и LLM на индивидуальном уровне. Напряжение на уровне социальных групп и объединений нарастает с еще большим драматизмом.

Не успели отгреметь весенние забастовки сценаристов Голливуда, протестовавших против ChatGPT, который с беспристрастностью машины продемонстрировал способность создавать продукт как минимум сопоставимого качества с тем, что выдают на-гора мастера кинопера, как увидели свет результаты социологических опросов корпоративных управленцев.

Американский консалтинговый гигант Gartner опросил во втором квартале текущего года 249 руководителей служб управления корпоративными рисками, которые с ошеломляющим единодушием (66%!) назвали массовую доступность генеративного AI второй по опасности угрозой благополучию компаний.

На первом месте с отрывом всего в один процент (67%) оказались риски, связанные с выживаемостью смежных партнеров.

Может показаться, что печаль корпоративщиков продиктована заботой о будущем трудоустройстве сотрудников (ведь ChatGPT играючи может «подсидеть» половину штата, выполняя его служебные обязанности и лучше, и быстрее), но здесь эта забота явно от лукавого.

Бизнес-бонзы уже подсчитали, что использование дармового LLM вместо дорогих и капризных людских ресурсов не только на порядок улучшит затратную часть бухотчетности, но и на 7% повысит ВВП, поэтому рискну предположить, что массовые увольнения не за горами.

66% озабоченности риск-менеджеров имеет другую природу — это способность LLM легко обходить ограничения копирайта.

Особенно это заметно на аудио- и визуальном контенте: за доли секунды ChatGPT (не говоря уже о профильных LLM, обученных специально для генерации контента определенного формата) создает картины, фотографии и музыкальные композиции, которые если и отличимы от продукции человеческого гения, то лишь в лучшую сторону.

Скорее всего, корпоративные страдания на текущем этапе внедрения LLM в жизнь общества носят тактический характер, ибо направлены лишь на выигрыш времени. Как только бизнес научится использовать LLM на полную катушку в собственных деловых интересах, от ламентаций риск-менеджеров не останется и следа.

Как только это случится — в ближайший год, максимум два, — на горизонте возникнет проблема совершенно иного характера: симбиоз офисных сотрудников с моделями LLM, с которыми придется работать в едином трудовом коллективе.

Если кому-то коллизия кажется надуманной, спешу поправить: еще в декабре прошлого года вышло фундаментальное исследование (Super Mario meets AI: Experimental Effects of Automation and Skills on Team Performance and Coordination, «Super Mario встречает искусственный интеллект: экспериментальное влияние автоматизации и навыков на производительность и координацию команды»), посвященное моделированию подобной ситуации. Людям предлагалось в различных комбинациях выступить единой командой с AI-игроками в культовой игре Super Mario (для простоты эксперимента использовали мини-игрушку Dash and Dine).

Результаты тестирования вышли ошеломительными: качество игры в смешанных парах снижалось безоговорочно, несмотря на то что задействованные автоматизаторы (основанные на AI) на порядок превосходили игровые умения людей. Иными словами, комбинация «сильный AI-игрок + человек» проигрывала не только командам, состоящим только из AI-игроков, но и командам, состоящим из одних людей.

Определилась и причина частых поражений смешанных пар: сбои в координации командных усилий. Сбои возникали из-за отсутствия доверия людей к AI-игрокам, что одновременно вело и к снижению личной отдачи: люди переставали стараться и начинали играть вполсилы, как бы заранее признавая собственную неспособность противостоять AI-игрокам и делегируя последним всю игровую нагрузку.

Еще один вывод, сделанный из эксперимента: чем ниже уровень игровой подготовки живых игроков, тем хуже эти игроки «срабатывались» с AI-партнерами.

Эксперимент Super Mario не оставляет сомнений: как только начнется массовое внедрение LLM в трудовые коллективы, первым делом необходимо будет отделять мух от котлет: LLM-сотрудники должны лишь дополнять человеческие усилия и ни в коем случае не деморализировать людей совместной работой. Люди должны работать в команде только с людьми, а LLM во всех случаях предпочитают работать в одиночку.

Как видите, работы предстоит непочатый край. Причем всем: и государствам, и корпорациям, и каждому индивиду. Если, конечно, этот индивид хочет вписаться в будущее в роли активного агента, а не пассивного религиозного почитателя нового бога Шоггота.

В какую картинку сложится весь этот калейдоскоп, не знает никто. В одном, однако, сомнений уже не осталось: LLM пришла навсегда, и наш единственный исторический выбор — с ней жить.

P.S. Подпишись на канал ГлавИнформ  — о том как экономика, политика и технологии влияют на нашу жизнь.

    ★1
    17 комментариев
    терминатор — судный день, в каком году настанет?
    реклама ИИ 
    зачем, если он всесилен?
    Валерий Осипенко, в чем тут реклама? Больше, констатация
    Валерий Осипенко, Он имеет ввиду- Первым игрокам приготовиться
    avatar
    как всегда впереди попы  политики и их  паства
    avatar

    Ну как бы статья — шляпа. Во-первых, то что нейросети научатся генерировать хорошие статьи, лично мне было ясно году эдак в 2017-м, а спецам и того раньше. Во-вторых, до сих пор они это не научились делать — просто что интернет, что сценарии к фильмам заполонили людо-боты, которые неотличимы по качеству от ИИ, вот он к ним и подтянулся по уровню. А выше прыгнуть не может, потому что мыслительный процесс у него ограничен, и это тоже заметно по его работе: как не умел ИИ думать 10 лет назад, так не умеет и сегодня.

    Я лично жду какой-нибудь OpenSource GPT, который наконец-то сможет порушить империю Google, так как качество поиска в интернете за последние годы упало настолько, что даже искать порой не хочется, а корпоративные GPT задавлены цензурой и ограничениями ресурсов процессора, и тоже превратились в гавнище.

    avatar
    Netro, «А выше прыгнуть не может, потому что мыслительный процесс у него ограничен» — спорный посыл
    Андрей Колесников, спор легко решается на практике 
    особых успехов ИИ пока не наблюдается, кроме восторгов тех у кого своего И маловато 
    Валерий Осипенко, а разве в статье нет подтверждения того, что успехов у ИИ полно
    Андрей Колесников, конкретно ничего, кроме какой то особой любви некоторых к ИИ 
    например, помощь в продвижении технологий или чего то реального почти ничего пока 
    особенно смешна попытка запрета ИИ
    по мне так простая автоматизация процессов и та удачней 
    для контроля -выведите ИИ для игры на биржу и дайте ей миллион и тогда посмотрим кто есть кто 
    придет время и все что сделано ИИ будет маркироваться и нормальные люди этот продукт будут обходить стороной 
    да, для анализа баз данных ИИ удачное решение, но счеты бухгалтерские в свое время были не менее удачны
    в деле синтеза нового этот ИИ пока пшик  

    Валерий Осипенко, действительно, носятся с ИИ как с писанной торбой. Сам автор поста подчеркнул, что нейросвязей на порядок меньше у ИИ, с чего генерироваться мышлению. А про любовь к ИИ, так любовь зла…
    avatar
    Аналоговый коллективный искусственный интеллект в виде государства обеспокоено существованием нейронного сетевого искусственного интеллекта, удивительно что нас людей черные ящики уже не спрашивают а просто обеспокоены существованием друг друга.
    Привели бы ссылки на русскоязычные ИИ
    У меня есть около 5 ИИ ссылок да все надоели
    И вопросы к ИИ внезапно кончились
    Помнится 25 лет назад все СМИ бились в истерике по поводу «проблемы 2000». Но как-то это прошло незаметно.
    Сейчас, такое впечатление, что проблему, которая встанет в будущем (через десятилетия), сейчас раздувают для отвлечения внимания от чего-то более важного. К той же серии относится обсуждение инопланетян.
    avatar
    Сейчас LLM учится у людей, а когда он их заменит, у кого будет учиться, сам у себя?
    avatar
    Пока этот интеллект не может питаться Роллтонами и сухарями, его жизнь в руках РФ.  Ему нужна энергия: газ, нефть, атом, без них он ничто.
    Идет борьба с ботами, а ИИ только удваивает их количество.
    avatar

    теги блога Андрей Колесников

    ....все тэги



    UPDONW
    Новый дизайн