Выбор фона:
/ Новости сайта / Наука и Технологии / Ученые пытаются обучить роботов морали
15.05.2014

Ученые пытаются обучить роботов морали

Оценка: 0.0    1628 9 Наука и Технологии
00:01
Группа исследователей из Университета Тафтса, Брауновского университета и Политехнического института Ренсселера, при сотрудничестве с Военно-морскими силами США, вот уже несколько лет работает над решением вопроса о том, как создать роботов, наделенных своим собственным чувством морали. Если затея ученых окажется успешной, то они смогут создать искусственный интеллект, способный самостоятельно оценивать сложность той или иной ситуации, и самостоятельно делать сложный этический выбор, согласно предварительно интегрированным в них инструкциям.

Семьдесят два года назад выдающийся писатель-фантаст Айзек Азимов сформулировал «три закона робототехники», которые могли бы послужить в качестве своего рода кодекса морального поведения для высокоразвитого искусственного интеллекта. К сожалению (или, наоборот, к счастью), современный ИИ до сих пор очень хрупок и слаб. Он не осознает мир вокруг себя. Люди еще не научились строить роботов, которые могли бы не то что следовать этим трем законам, а хотя бы просто их понимать.

Группа ученых под руководством профессора Маттиаса Шутца из Университета Тафтса пытается решить очень важную проблему, которая пока не позволяет нам построить таких роботов: разбить человеческое представление на базовые компоненты и постараться интегрировать их на понятном роботу языке в разрабатываемый фреймворк. Позже ученые постараются смоделировать этот фреймворк в виде алгоритма и интегрировать его в искусственный интеллект. Информационная инфраструктура позволит роботу пересмотреть свои инструкции перед лицом новых доказательств и обосновывать свое поведение в отношении людей, которые им управляют.

«Представление морали можно грубо воспринимать как способность к обучению и осознанию причины и следствия, а также возможность обсуждения законов и социальных конвенций, принятых в том или ином обществе», — говорит Шутц.

«Вопрос заключается в следующем: могут ли машины, или любые другие искусственные системы в этих рамках эмулировать и обладать этими способностями?», — продолжает ученый.

Например, роботу-медику может быть поручена задача по срочной доставке жизненно важных лекарств в определенное место. На пути он встречает человека в критическом состоянии. Моральный кодекс робота поможет ему самостоятельно оценить ситуацию и принять решение: остановиться и помочь человеку, или продолжить выполнение своей первостепенной задачи.

Если рассказы Азимова нас чему-то и научили, так это тому, что набор строгих и запрограммированных правил не может принимать во внимание каждый из возможных сценариев событий, так как всегда имеется вероятность возникновения непредвиденной ситуации, которая рано или поздно случается. Шутц и его коллеги с этим согласны и предлагают решение этой проблемы в два этапа.

По их мнению, все решения роботов будут приниматься во-первых с учетом первостепенной этической проверки за счет специальной программы, которая тем или иным образом похожа на одну из самых продвинутых систем вопросно-ответных ИИ, таких как, например, Watson от компании IBM. Если для решения задачи потребуется больше информации, то робот будет полагаться на систему эмуляции моральных ценностей, которую Шутц пытается разработать со своими коллегами.

Так как проект развивается при поддержке ВМС США, технология, вероятнее всего, сможет сперва найти свое применение при производстве медицинских роботов, которые будут помогать солдатам на полях сражений.

 
Источник:  http://hi-news.ru


Поделитесь в социальных сетях

Комментарии 9

0  
maikl2m 15.05.2014 13:24 [Материал]
У каннибалов тоже есть своя мораль - кого, когда и как съесть...
0  
Forest SWAMP 15.05.2014 13:00 [Материал]
Если добавить роботам мораль, то понятие "человеческий фактор" будет и к ним относиться. Ошибки, неточности. Чувства.
0  
Forest SWAMP 15.05.2014 12:37 [Материал]
Попытка не пытка.
0  
bigin 15.05.2014 12:10 [Материал]
мда ,уж.
а потом референдум,ополчение,и кирдык под лязг красовок алюминивых. wink
0  
грем 15.05.2014 09:02 [Материал]
Разделяй и Властвуй 4 закон biggrin
0  
Aaz 15.05.2014 07:29 [Материал]
0  
Aaz 15.05.2014 07:28 [Материал]
-Знаешь почему вороны всегда воруют?
- Нет.
- Потому что они черные.
- Ха-ха-ха-ха....
http://img0.joyreactor.cc/pics....%D0%B2% D0%BD%D0%BE%D1%81%D1%82%D1%8C-%D1%80%D0%B0%D1%81%D1%81%D0%B8%D1%81-1243947.gif

Мораль: рождаться нада в правильной стране.
0  
Forest SWAMP 15.05.2014 12:53 [Материал]
Родителей не выбирают. Если разум приклеился к телу, рожденному в какой-то стране, то это не значит что человек плох.
0  
vit050 15.05.2014 00:54 [Материал]
Если этим занимается Шульц, то какая-то странная мораль у него должна получиться... crackegg
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]

Похожие материалы

Разговоры у камина
Календарь
Последние комментарии
Как люди смогли выжить в ледниковый период при экстремальных условиях
Нет ссылей на первоисточники, на картинках смоделировано то, чего никогда не могло быть. Ледниковые (от Gr70)
Расследован таинственный случай воскрешения звезды
То не воскрешение было, а просто снижение яркости, по космическим причинам, а после снова проявилось (от Gr70)
Арктика оказалась теплее около 100 тысяч лет назад
Мда, как будто хотят спуститься в прошлое, для новых завоеваний. Ну нашли слои вечной мерзлоты, ну п (от Gr70)
Обнаружено "инопланетное растение"
Мало ли какими растениями была заселена Земля в далёком прошлом планеты? Опыты проводились специальн (от Gr70)
Как люди смогли выжить в ледниковый период при экстремальных условиях
Брехня всё это, человек не выживет в морозы, как согревались круглосуточно, как перемещались когда с (от amateurbeer)