Выбор фона:
/ Новости сайта / Наука и Технологии / Роботов поставили в ситуацию морального выбора
16.09.2014

Роботов поставили в ситуацию морального выбора

Оценка: 5.0    2549 9 Наука и Технологии
19:05
Создав для роботов ситуацию этического выбора — кого из двух человек, одновременно попадающих в опасность, надо спасать — ученые выяснили, что больше всего смертей приносит не сам выбор, а слишком долгие размышления машины. О своем эксперименте Алан Винфилд (Alan Winfield) из Бристольской лаборатории робототехники рассказал на конференции по автономным роботам, которая прошла 2 сентября в Бирмингеме.

Винфилд запрограммировал робота удерживать другие автоматы (которые изображали людей) от падения в яму. Такой эксперимент представляет собой, по сути, иллюстрацию к первому закону робототехники А. Азимова: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред».



Сначала у машины проблем не возникло: как только «человек» приближался к яме, робот быстро отодвигал его от опасного места. Но когда ученые добавили второй автомат, приближавшейся к ловушке с той же скоростью, перед роботом встала дилемма — кого спасать первым. Иногда ему удавалось удержать одного «человека», пару раз — двоих, но в 14 случаев из 33 робот столько времени тратил на этические размышления, что оба «человека» падали в яму.

Винфилд признает неутешительные результаты своего эксперимента и подчеркивает, что роботы все еще остаются «этическими зомби»: они, способны соблюдать определенный кодекс поведения, но не понимают его моральные основания.

Научить машины принимать этические решения могут специалисты по военной робототехнике. Рональд Аркин (Ronald Arkin) из разработал набор алгоритмов («этический руководитель»), который призван помочь роботам действовать на поле боя: в каких ситуациях прекращать огонь, в какой обстановке (около школы или больницы, например) стремится свести к минимуму количество жертв.

Аркин считает, что научить морали военных роботов будет проще всего, так как законы войны являются четкими и прописаны в международных договорах. В отличие от живых солдат, подверженных эмоциям и аффектам, машины никогда не нарушат эти законы.



 


Поделитесь в социальных сетях

Комментарии 9

0  
Alnilam 16.09.2014 23:17 [Материал]
Только сейчас осенило, какая может быть у роботов мораль... Только алгоритмы и реакции на данные поступающие от сенсоров, которые заложили программисты.
Никакого самосознания своего Я, понимания себя как личности.
Робот будет соблюдать ту мораль которой его научили.
С таким успехом свой андройд 4.2 я могу считать высокоморальным созданием, когда он без глюков работает )))
+1  
IDU 17.09.2014 05:15 [Материал]
Интересно, что заложили в Вас.
+1  
AG 16.09.2014 22:13 [Материал]
..."Научить машины принимать этические решения могут специалисты по военной робототехнике. Рональд Аркин (Ronald Arkin) из разработал набор алгоритмов («этический руководитель»), который призван помочь роботам действовать на поле боя"
Не знаю, то ли смеяться, то ли плакать! Да, и не надо путать искусственный интеллект и программируемое механическое устройство! Циркулярная пила даже с набором предохранителей к этике отношения не имеет!
+2  
Alnilam 16.09.2014 21:58 [Материал]
Цитата Shinnn
Но есть опасность в создании биороботов, которые научатся думать и создавать программы для своих собственных интересов.

Незнаю... возможно ли такое. Но уже один биоробот научился писать не думая что пишет biggrin
b0tshinnn crezy-c0ntr0l )))
0  
Аня 16.09.2014 20:33 [Материал]
Что будет с роботом нарушившим закон человека?
0  
AG 16.09.2014 22:05 [Материал]
Переплавят! biggrin
0  
Veya 16.09.2014 22:09 [Материал]
он завоюет весь мир cry
+2  
Torag 16.09.2014 19:33 [Материал]
Новость о роботе-тугодуме подняла мое плохое настроние просто к космическим высотам! biggrin
0  
Veya 16.09.2014 20:13 [Материал]
biggrin biggrin biggrin
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]

Похожие материалы

Разговоры у камина
Календарь
Последние комментарии
Если вы слышите голос в голове во время мысленного монолога — вам повезло
Автор статьи - шизофреник?
Никто в здравом уме никакие голоса в голове не "слышит" (от topzz)

Американские ученые добились бессмертия для мухи
На 139 тысяч нейронов 54 миллиона синапсов, не слишком ли много? (от Snork)
Любовь и предательство: драма Наполеона и Жозефины
Цитата Кориона "Жозефина была постоянно под градусами , впрочем и сам Наполеон тоже. Так что сл (от Катенька)
Любовь и предательство: драма Наполеона и Жозефины
И где тут мужененавистничество? Просто реальность. Лично я всем мужчинам, которые были со мной рядом (от Koriona)