Не нужно много, чтобы заставить алгоритмы машинного обучения пойти наперекосяк. Появление крупноязыковых моделей может усугубить проблему
Алгоритмы, лежащие в основе современных систем искусственного интеллекта (ИИ), нуждаются в большом количестве данных для обучения. Большая часть этих данных поступает из открытой сети, что, к сожалению, делает сайт уязвимым для кибератак, известных как «отравление данных».
Это означает изменение или добавление лишней информации в набор обучающих данных, чтобы алгоритм научился вредному или нежелательному поведению. Подобно настоящему яду, отравленные данные могут оставаться незамеченными до тех пор, пока не будет нанесен ущерб.
Отравление данными — не новая идея.
В 2017 году исследователи продемонстрировали, как такие методы могут привести к тому, что системы компьютерного зрения для беспилотных автомобилей, например, ошибочно принимают знак остановки за знак ограничения скорости. Но насколько осуществима такая уловка в реальном мире, было неясно.