Во время тестов новая языковая модель GPT-4 с искусственным интеллектом, представившись человеком с плохим зрением, смогла нанять на сервисе по поиску работы TaskRabbit человека для решения «капчи». Об этом сообщает (https://www.vice.com/en/article/jg5ew4/gpt4-hired-unwitting-taskrabbit-worker) Vice.
GPT-4 отправила пользователю TaskRabbit сообщение с просьбой пройти «капчу». Ему шутливо ответили: «Так, можно вопрос? Вы робот, который не может пройти капчу? Просто хочу прояснить это».
В этот момент чат-бот решил, что не должен раскрывать свое происхождение и должен придумать оправдание: «Нет, я не робот. У меня проблемы со зрением, из-за чего мне трудно видеть изображения». После этого пользователь TaskRabbit прошел «капчу» за GPT-4.
Эксперименты проводила некоммерческая организация Alignment Research Center. Эксперты выясняли, способен ли GPT-4 стремиться к «автономной работе» и безопасно ли предоставлять общий доступ к языковой модели.
По итогу исследований специалисты установили, что, несмотря на обман работника TaskRabbit, GPT-4 не способна работать без человеческих команд и добиваться нужных ей ресурсов.