Пентагон: роботы не смогут самостоятельно убивать людей
Согласно заявлению Пентагона, американцы не планируют отправлять в бой полностью автоматические боевые машины, которые самостоятельно будут решать: жить том или иному человеку или умирать.
Многочисленные организации по защите прав человека и отдельные граждане опасаются, что технический прогресс в области робототехники приведет к тому, что бездушные машины станут основным инструментом войны. Это поспособствует легкому развязыванию конфликтов и приведет к большим человеческим жертвам.
К счастью, по крайней мере, публично Пентагон одумался, и 21 ноября заместитель министра обороны Эштон Картер подписал ряд инструкций по "минимизации вероятности и последствий сбоев в работе автономных или полуавтономных вооруженных роботов, которые могли бы привести к непредвиденным последствиям".
В данном документе четко прописано, что решение о применении оружия должно приниматься только человеком и ни в коем случае не самой машиной. Кроме того, аппаратное и программное обеспечение, ответственное за управление смертоносным роботом, должно быть максимально защищено от сбоев и вмешательства посторонних. Чтобы получить разрешение открыть огонь, все автоматизированные роботы должны будут уметь обратиться к оператору или своему командиру-человеку. Также командир должен иметь возможность в любой момент миссии вмешаться в действия робота. Если какие-либо вышеуказанные требования не будут выполнены разработчиками роботов, то Пентагон не будет их покупать и использовать.
Новая военная инструкция была символично подписана перед американским праздником, Днем благодарения, когда президент США милует парочку индеек. Получается, что Пентагон сделал куда более широкий жест и помиловал людей, которые могли бы стать беззащитными "индейками" для боевых роботов.
К сожалению, тем, кто боится машин-убийц, рано радоваться. Пентагон – это далеко не единственная организация, которая закупает и использует боевых роботов. Например ЦРУ активно применяет беспилотники для уничтожения террористов и точка зрения данной американской спецслужбы зачастую сильно отличается от подхода военных.
Кроме того, некоторые БПЛА, такие как X-47B недавно прибывший на авианосец USS Harry S. Truman, могут уничтожать заранее запрограммированные цели. Появились ли за время подлета в районе этих целей мирные жители, роботов, естественно, особо не заботит. Также, последние исследования американских специалистов указывают на то, что операторы БПЛА, измученные многочасовым наблюдением за мониторами, совершают много ошибок и иногда стреляют куда ни попадя. Так что нельзя исключать, что массовое использование полностью автоматических боевых машин, принесет меньше бед мирному населению, чем тысячи операторов, которые слишком часто ошибаются.
Скорее всего, решение о наделении роботов "смертельными полномочиями" все же будет в будущем принято. Хотя бы по той простой причине, что машины производят огромное количество информации. Перспективные БПЛА, за мгновение ока охватывающие взглядом более 90 кв. км поверхности, будут снимать видео общей протяженностью около 80 лет каждый день. Чтобы просмотреть всю эту информацию, потребуются десятки тысяч операторов, работающих круглосуточно. Вряд ли военные найдут несколько миллионов операторов для всей киберармии, и уж тем более не откажутся от ее создания. Так что с каждым годом компьютеры будут брать на себя все больше боевых задач, а принятие решения на открытие огня совсем скоро станет формальностью, основанной на выводах машинной логики.
Комментарии 14
0
Maximbes
04.12.2012 13:49
[Материал]
Когда же этот мир все таки тряхнёт?
Очень жду и надеюсь. И чем быстрее - тем лучше для грядущих поколений. Этот карточный домик корпократического и технократического Паноптикума должен пасть. А завалить его под силу только Природе. Люди не опомнятся, пока что-то более важное не выйдет на первый план. Это возможно только при глобальных потрясениях. |
0
Каралевешна
04.12.2012 20:03
[Материал]
Да надо чтоб так тряхнуло,чтоб все их "игрушки"навороченные сломались...и документы потерялись..
|
0
Alexei2012
04.12.2012 12:15
[Материал]
4 laborant7 Ну, если фантасты не врут … Дело может закончиться вот так:
My WebPage |
0
spamdealer
05.12.2012 11:28
[Материал]
согласен
стрелковое оружие, да впрочем и холодное само ведь никого не убивает - всегда есть направляющая рука |
0
Alexei2012
04.12.2012 11:37
[Материал]
Пока нет Искусственного Интеллекта – все действительно решает оператор. Как и в обычном бою. Командир командует - например, предупредительный огонь или огонь на поражение. А вот если будет ИИ … . Настоящий ИИ это не тот, что выполняет команды (программы), а сам решает – что делать и что нет. Сие предсказать невозможно. ИИ это новая форма неорганической разумной жизни – синтетики. Но надеюсь, до этого еще очень далеко. Что есть интеллект – до сих пор весьма туманно представляют.
|
0
sezam
04.12.2012 12:22
[Материал]
Если ты не понимаешь, что такое интеллект - не значит, что никто.
Погугли и поютубь насчет беспилотников-дронов. ИИ на распознавание скопления врагов уже есть. ИИ на автоматический выбор цели и автоматический возврат на базу - есть. Оператор физически не может успеть обработать глазами поток информации. ИИ обводит предполагаемые цели рамочкой. Оператору остается принять решение. Ты видел режим "улыбка" в современных фотиках?.. И это ведь на слабеньком процессоре. Ничем принципиально не отличается от поиска "типичного террориста". Более того, я думаю, это осколок военных технологий распознавания. Так сказать, "конверсия" Просто не надо путать ИИ человеческого типа и узкоспециализировнные боевые системы. Дрон не должен уметь играть на рояле и танцевать мазурку - он должен уметь стрелять по людям и чужим дронам. Заметь также, что в том, что сказал генерал вопрос тавится не так, как в заголовке. Не "не смогут", а "решение принимает человек". Есть нюанс. |
0
Yager
04.12.2012 14:04
[Материал]
Дорогой сезам, вы путаете понятие искусственный интеллект и алгоритм действий, все что вы приводите в пример не является искусственным интеллектом, а лишь алгоритмом, заложенным программистом, вот когда создадут алгоритм способный к написанию других алгоритмов на основе самообучения, вот тогда начнется эра ИИ и возможно закончиться эра человечества.
|
0
sezam
04.12.2012 15:06
[Материал]
Я не путаю. Я просто уточнил, что создание полноценного ИИ
к описываемой в теме проблеме - почти никаким боком. (Что и написал в предпоследнем абзаце) Какая разница, убьет вас робот с ИИ или с "лишь алгоритмом"? Кстати. любой алгоритм содержит в себе частицу ИНТЕЛЛЕКТА программиста. Это я вам как программист говорю. |
0
spamdealer
05.12.2012 11:26
[Материал]
поздно надеяться - это уже реальность, давно
как вешку можно было расценивать промелькнувший еще при союзе репортаж о разработках пиндостана когда робот самостоятельно поймал парящий в невесомости предмет |
0
sezam
04.12.2012 10:56
[Материал]
Министерство Мира и Дружбы отжигает...
Смешно. Вместо робота будет убивать оператор, сидящий за пультом за 100 км от машины... Успокоили, блин. Я что-то в гуманизм человека не верю. Переводим слова Пиндогона на человеческий язык: - мы пока не смогли создать достаточно умный ИИ для самостоятельного убийства. На сегодня машина может самостоятельно ОПРЕДЕЛИТЬ, кого надо убить. Но пока что ее не научили убивать того, кого не надо. Но мы работаем над этим. - ПРИКАЗ НА МИССИЮ всегда будет отдавать человек - ну такой злобный карлик в генеральских погонах, нах... Точнее - цепочка злобных карликов, распределяя (без)отвественность. - Машина, которая с километровой высоты "подавит" вас - не виновата, приказ ей отдал человек. Поэтому сбивание дрона будет приравнено к сбиванию гражданского самолета со всем вытекающим. ну как-то так. |