ChatGPT и его аналоги оказались малополезны для использования в реальных атаках, лишь отнимая у злоумышленников драгоценное время.
Несмотря на обеспокоенность исследователей безопасности и правоохранительных органов некоторых стран по поводу злонамеренного использования ChatGPT и аналогичных больших языковых моделей (LLM-моделей), серьезных поводов для беспокойства пока нет.
Проведенное компанией Sophos исследование киберпреступных форумов показало, что многие злоумышленники по-прежнему скептически настроены в отношении чат-ботов и нейросетей —используют их буквально сквозь боль и слезы, так как добиться желаемого результата получается крайне редко.
Инновационная новинка или мошенничество?
Исследователи Sophos обнаружили в киберподполье сразу несколько LLM-моделей, утверждающих, что обладают возможностями, аналогичными WormGPT и FraudGPT. Среди таких моделей, предназначенных для профессиональных интернет-злодеяний, — EvilGPT, DarkGPT, PentesterGPT и другие. Однако эксперты отметили явный скептицизм в отношении некоторых из них. Киберпреступники обвиняют авторов данных моделей в мошенничестве и невыполнении чат-ботами заявленных возможностей.
Авто-репост. Читать в блоге >>>