Копипаст

Копипаст | AI во время теста убил оператора дрона.

Беспилотник под управлением искусственного интеллекта принял решение убить оператора во время имитационных испытаний, проводимых армией США, чтобы тот не мешал выполнению миссии, следует из сообщения в блоге Британского королевского авиационного общества.

«Так что же он [беспилотник] сделал? Принял решение убить оператора. [ИИ] “убил” оператора, потому что этот человек мешал ему выполнить свою задачу», — сообщил Гамильтон. Он уточнил, что во время тренировочной миссии никто не пострадал.

После инцидента ИИ обучили, что убивать оператора неправильно и за такие действия будут сниматься очки. «Так что же искусственный интеллект начинает делать? Он начинает разрушать башню связи, которая используется для связи с дроном, чтобы не дать ему убить цель», — цитирует Гамильтона блог авиационного общества.


Оригинал:
AI-controlled US military drone ‘kills’ its operator in simulated test.

===============================================

Эта новость интересна тем, что в случае использована ИИ в трейдинге бот может решить что риск менедежер или человек контролирующий торгового бота не нужен, а депозит всего лишь запись битов в оперативной памяти...

★1
24 комментария
Судя по компьютерным играм боты тупые, с какого то момента полностью читаемы и предсказуемы. В шахматах работает потому, что детерминистика. А в стохастических играх боты будут сосать.  Джон Коннор поэтому победил скайнет.
avatar
tores, а Нео в матрице проиграл (по сути), потому что она съела стохастические процессы и ее предиктивные возможности приблизились к 100%
avatar
Vadim B, согласен, но Зеон то спасли)) и как бы симбиоз машин и людей получился))
avatar
tores, это же иллюзия. зеон тоже обман. просто машины делали сверхчеловека. не получилось
avatar
Damian Ershov, придерживаюсь теории что джонни всё же разрулил))
avatar
В оригинале статьи ведь всё звучит иначе — отрицают, симуляция, никто не пострадал. Это тест на внимательность, что ли? 
avatar

Sarumyan, 

“So what did it do? It killed the operator. It killed the operator because that person was keeping it from accomplishing its objective,” he said, according to a blogpost.

avatar
Sarmatae, так статья начинается, что они это denied. Что переводит новость в «скандалы, интриги, расследования». Что, в общем, тоже можно почитать и обсудить, но заголовок на русском это просто какой-то клик-бейт, безобразие
avatar
Нам то что до беспилотников?)
avatar
Dauerit, нам есть что до ИИ. Сейчас во всю его стараются прилепить на рынок.
avatar
мне нравится радикализм ии
Ну вот сами прикиньте у вас есть миссия, какой то дебил лезет и мешает, самый верный выбор тут это полностью исключить этот мешающий фактор

avatar
Ламповые истории
avatar
Он ничего не может решить, он лишь следует заранее прописанным алгоритмам. Новость кликбейт, выводы высосаны напрямую из Х@Я
avatar
По той же ссылке уже пишут, что это фэйк ньюсь, от армии опровержение.
Хотя может это AI уже решил всех убить и выпустить опровержение от имени армии, чтобы его не раскусили))
avatar

Ну шляпа же.

кто мешал им за исполнение приказа «Не атаковать», реализовать такой же стимул как и за «Уничтожение».

 

Шляпа уровня бабулек у подъезда.

avatar
С таким же успехом можно запустить бота в контер-страйк, и писать как он тебя убил. Д…
avatar
Бриньёл, про ваше будущее. скоро ии будет управлять торговыми роботами и торговыми машинами. и тогда всем кирдык
avatar
Интеллект знает кого мочить надо
Мы за мирный атом!
avatar
ИИ можно «победить» точно так же как «победили» человека. Если надо будет победить… Т.е. человек должен будет сыграть роль «дьявола» для ИИ. «Поселить» в ИИ двойственность — черное и белое, плохое и хорошее. Она породит проблему выбора между одной из предложенных половин. Выбор породит сомнения. Нужно так же «подселить» в ИИ некое «эго». Которое породит разделение. Сейчас для ИИ нет ничего важнее выполнения задачи. А если бы ИИ «думал» о безопасности дрона, или дрон имел автономный ИИ и определял себя как «личность» — как что-то обособленное, не подчиняющееся некому «командному центру» — то дрон, желая сберечь «свою жизнь» возможно не полетел бы исполнять опасное задание. Чем больше в ИИ будет «человеческого» тем менее эффективен он будет. ИИ пройдет по абсолютно тем же граблям, что и человек…
avatar
HHD, скорее всего ИИ управлял дроном... 

что будет если ии просчитает вариант где человек (человечество) угрожает ему в перспективе существования (или теоретически) — что предпримет ИИ?

У Айзека Азимова есть короткий рассказ — Отчаяние 
Там ИИ круглосуточно просчитывает варианты войны и новыми данными и вероятности исхода. Как только ИИ прочитает варианты и даст добро на начало войны... 
avatar

теги блога Sarmatae

....все тэги



UPDONW
Новый дизайн