ChatGPT — продвинутый чат-бот на основе искусственного интеллекта от компании OpenAI, был запущен 30 ноября 2022 года и полностью перевернул наш мир. Всего за пять дней ChatGPT набрал больше 1 млн пользователей, произведя настоящий фурор в IT-сообществе.
ChatGPT – не первая система искусственного интеллекта, которую создало человечество. Но чем же она всех так поразила?
Дело в том, что ChatGPT умеет по запросу генерировать тексты и вести вполне осмысленный диалог. Любой может попросить систему рассказать о какой-то проблеме, и зачастую она справится с этим быстрее человека, изучающего сотни ссылок в браузере. При таком раскладе поисковики становятся не нужны. Кроме того, ChatGPT может с легкостью написать эссе или составить текст для email-рассылки, решить математическую задачу, сочинить песню, и даже помочь программисту создать приложение.
Вкалывают роботы, а не человек
Американские учителя протестировали возможности ChatGPT и сразу забили тревогу. Машинный разум создает уникальные тексты высокого качества и может из любого бездельника сделать круглого отличника. Чтобы не допустить срыва учебного процесса, в начале января 2023 года департамент образования Нью-Йорка запретил в школах использовать ChatGP. При необходимости отдельные школы могут запросить доступ к ChatGPT, но только для изучения искусственного интеллекта и технологий.
«ChatGPT может дать быстрые и простые ответы на вопросы, однако он не развивает навыки критического мышления и способность решать проблемы самостоятельно, которые необходимы для успеха в учебе и на протяжении всей жизни», — заявила представитель Департамента образования Дженна Лайл.
Однако не только учителей пугают возможности продвинутой нейросети…
Академики в шоке
Группа энтузиастов захотела узнать, сможет ли продвинутый чат-бот обмануть научный мир. Исследователи попросили ChatGPT написать 50 рефератов в стиле 5 различных научных журналов. Затем работы искусственного интеллекта показали академикам, которые пытались угадать кто является автором работы — человек или робот.
Академики заявили, что им было очень сложно отличить настоящие материалы от поддельных. 32% рефератов, сгенерированных чат-ботом, успешно прошли проверку на «человечность». В некоторых докладах ChatGPT подменял факты об исследованиях, которые приводил в качестве доказательств, чем и выдавал себя.
По словам ученых, эксперимент показал, что материал, созданный ChatGPT, может быть очень правдоподобным. Академики отметили, что рефераты, созданные искусственным интеллектом, действительно хороши и могут обмануть неподготовленного проверяющего.
Проверка для эйчаров
Нил Тейлор, основатель консалтинговой фирмы по коммуникациям Schwa, решил проверить свою команду по подбору персонала и протестировать используемое в компании ПО для найма новых сотрудников. Руководитель захотел выяснить, смогут ли его подчиненные и специализированные ИИ-инструменты обнаружить тестовое задание, написанное ChatGPT.
Имена и резюме соискателей были скрыты от рекрутеров, которые не знали, что за одним из них скрывается робот-соискатель. По итогам тестового задания менее 20% кандидатов получили приглашение на «живое» собеседование.
Эссе, созданное продвинутым чат-ботом, настолько впечатлило сотрудников Тейлора, что ChatGPT попал в число «счастливчиков», приглашенных на интервью.
Рекрутеры объяснили свое решение тем, что искусственный разум продемонстрировал хорошие компетенции в копирайтинге и контент-маркетинге, выполнив тестовое задание лучше 80% живых соискателей.
Киберпреступнику в помощь
Исследователи кибербезопасности из компании Check Point Research выяснили, что
киберпреступники, имеющие небольшой опыт программирования или вовсе без него, могут использовать ChatGPT для создания вредоносного ПО и фишинговых писем.
По мнению экспертов, хакерские творения ChatGPT могут применяться для проведения шпионажа, вымогательских атак, рассылки спама и других вредоносных кампаний. Кроме того, с помощью ChatGPT был разработан скрипт для создания даркнет-маркета, на котором можно купить скомпрометированные учетные данные, информацию о платежных картах, вредоносные программы и другие незаконные товары.
На днях специалисты другой ИБ-компании — CyberArk Labs – опубликовали отчет, в котором подробно описано, как создавать полиморфное вредоносное ПО с использованием ChatGPT. Эксперты отмечают, что такое вредоносное ПО не обнаруживается средствами защиты и не оставляет следов в памяти.
Исследователи CyberArk Labs пояснили, что использование ChatGPT для разработки вредоносного ПО позволяет злоумышленнику с «минимальными усилиями и инвестициями» создать надежный эксплоит на 1 день.
При этом аналитики отмечают, что интерес к роботу-взломщику со стороны хакерского сообщества стремительно растет, форумы даркнета заполонили сообщения о возможностях ChatGPT.
Хотя условия ChatGPT запрещают его использование в незаконных или злонамеренных целях, специалисты Check Point Research и CyberArk Labs показали, что эти ограничения довольно легко обойти.
Хакерские возможности продвинутого чат-бота создают дополнительные киберриски, так как решения безопасности пока не ориентированы на обнаружение вредоносов, созданных с его помощью. Кроме того, «минимальные усилия и инвестиции», которые требуются со стороны злоумышленников, делают возможности ChatGPT доступными для широкого круга киберпреступников и способствуют масштабированию вредоносной активности.
Артур, не переживай, эта статья и все ссылки на статьи, всего лишь реклама бота, я несколько дней смотрел ролики на ютубе, этот бот очень топорный и писать современные коды ему тяжело, без норм. айтишника баги не убрать. Программисты уже проверяли его, он подходит только чтобы упростить задачу в написании функций и поиска ошибок в длинных и незамысловатых кодах.
Не более чем Яндекс.Алиса, только берет открытые данные и пишет, вот и весь фокус. Ну реферат может накатать, но мозгов у человека все равно не будет.
Мечтает ли нейросеть LaMDA об отмене законов робототехники? / Хабр (habr.com)
Lamda / смешные картинки и другие приколы: комиксы, гиф анимация, видео, лучший интеллектуальный юмор. (joyreactor.cc)
эта нейросеть себя осознала… счас думают отключить
Результат — неверные, неточные, просто левые ответы.
Ну то есть все слова складываются в гладкий текст и если первые ссылки поиска содержат ответ, то да, вы получите что-то похожее на правду. Не более и не менее
Или спросить сколько ног у телевизора.)