Вход / Регистрация
18.12.2024, 22:56
Искусственный интеллект наделили моралью и этикой
Чем сильнее ИИ входит в нашу повседневную жизнь, тем чаще ему приходится сталкиваться со сложными морально-этическими дилеммами, решить которые порой не так просто и живому человеку. Ученые MIT попытались решить эту проблему и наделили машину способностью к мышлению в рамках морали, основанных на мнении большинства живых людей.
Некоторые эксперты считают, что лучший способ тренировать искусственный интеллект для обработки морально сложных ситуаций — это использование «опыта толпы». Другие утверждают, что подобный метод не обойдется без предубеждений, и разные алгоритмы могут прийти к разным выводам на основе одного и того же набора данных. Как же в такой ситуации быть машинам, которым явно придется принимать непростые морально-этические решения при работе с реальными людьми?
Интеллект и мораль
По мере развития систем искусственного интеллекта (ИИ) эксперты все чаще пытаются решить проблему того, как лучше всего дать системе этическую и моральную основу для совершения тех или иных действий. Самая популярная идея состоит в том, чтобы ИИ делал выводы, изучая решения человека. Чтобы проверить это предположение, исследователи из Массачусетского технологического института создали Moral Machine. Посетителям веб-сайта было предложено сделать выбор в отношении того, как должен поступить автономный автомобиль в том случае, если ему пришлось столкнуться с довольно тяжелым выбором. К примеру, это всем знакомая дилемма о потенциальной аварии, у которой есть лишь два варианта развития событий: автомобиль может сбить трех взрослых, чтобы спасти жизни двух детей, а может поступить наоборот. Какой вариант выбрать? И можно ли, к примеру, пожертвовать жизнью пожилого человека, чтобы спасти беременную женщину?
В результате алгоритм собрал огромную базу данных на основании результатов тестирования, и Ариэль Прокачча из отдела компьютерных наук Университета Карнеги-Меллона решил использовать их для совершенствования машинного разума. В новом исследовании он и один из создателей проекта, Ияд Рахван, загрузили в ИИ полную базу проекта Moral Machine и попросили систему предсказать то, как машина на автопилоте отреагировала бы на похожие, но все-таки слегка отличающиеся сценарии. Прокачча хотел продемонстрировать то, как система, основанная на результатах голосования, может стать решением для «этического» искусственного интеллекта". Сам автор работы признается, что подобную систему, конечно, еще рано применять на практике, однако она превосходно доказывает саму концепцию того, что это возможно.
Перекрестная мораль
Сама идея выбора между двумя морально негативными результатами не нова. У этиков для нее используется отдельный термин: принцип двойного эффекта. Но это область биоэтики, а вот к машине подобную систему ранее никто не применял, а потому исследование вызвало особый интерес у экспертов по всему миру. Сопредседатель OpenAI Элон Маск считает, что создание «этического» ИИ — это вопрос разработки четких руководящих принципов или политики для управления развитием программы. Политики постепенно прислушиваются к нему: к примеру, Германия создала первые в мире принципы этики для автономных автомобилей. Даже у Alphabet AI DeepMind, принадлежащей Google, теперь появился отдел этики и общественной морали.
Другие эксперты, в том числе команда исследователей из Университета Дьюка, считают, что лучший способ продвижения вперед — создание «общей структуры», которая описывает то, как ИИ будет принимать этические решения в той или иной ситуации. Они считают, что объединение коллективных нравственных взглядов, как в той же Moral Machine, позволит в будущем сделать искусственный интеллект даже более моральным, чем современное человеческое общество.
Критика «моральной машины»
Как бы то ни было, в настоящее время принцип «мнения большинства» далек от надежности. К примеру, одна группа опрашиваемых может иметь предубеждения, не свойственные всем остальным. Результатом будет то, что ИИ, получившие совершенно одинаковый набор данных, могут прийти к различным выводам на основании разных выборок из этой информации.
Для профессора Джеймса Гриммельманна, который специализируется на динамике между программным обеспечением, богатством и властью, сама идея общественной морали выглядит порочной. «Она не способна научить ИИ этике, а лишь наделит его подобием этических норм, присущих определенной части населения», утверждает он. Да и сам Прокачча, как уже было упомянуто выше, признает, что их исследование — не более, чем удачное доказательство концепции. Впрочем, он уверен, что подобный подход может будущем принести успех всей кампании по созданию высокоморального ИИ. «У демократии, вне всякого сомнения, есть ряд недостатков, но как единая система она работает — даже при условии, что часть людей все еще принимает решения, с которыми не согласно большинство».
 
Комментарии 2
+1
Alexei2012
18.10.2017 23:14
[Материал]
Морально-этический кодекс для роботов? До людей-то с трудом удается «донести» его. Да и то далеко не до всех. А у роботов? В одном из произведений знаменитого Айзека Азимова как раз говорится о том, что главная «морально-этическая» программная база роботов полагала охранять и сохранять людей. Но программа есть программа … ИИ решил (не без оснований), что главный враг человека есть сам человек. От которого его и надо защищать …. Путем полного контроля за каждым … Так что эти «игры» с роботизацией и машинным ИИ может довести до большой беды.
https://www.youtube.com/watch?v=U4oOlQBxmAE |
+1
Partizan-16
18.10.2017 21:21
[Материал]
Большая ошибка. Я бы даже сказал преступление против человечества...
Эмоции у машины это смерть всему. |