Выбор фона:
/ Новости сайта / Наука и Технологии / Почему лучше доверять роботу, а не человеку?
18.03.2014

Почему лучше доверять роботу, а не человеку?

Оценка: 0.0    1822 4 Наука и Технологии
17:28

Роботы, как и автономные системы в целом, могут вызывать беспокойство и неуверенность, особенно когда их использование в повседневной жизни становится возможным. Чтобы уменьшить уровень беспокойства, нам нужно слегка сместить фокус с тех вещей, которые делают роботы, на то, чем они являются. В некотором смысле они могут быть более надежными, чем люди.

Нравится вам это или нет, автономные системы уже здесь и останутся здесь. Под автономностью мы имеем в виду способность системы принимать собственные решения о том, что делать и когда делать. До сих пор большая часть примеров — роботы-пылесосы, автопилот самолета и другие мелочи, просты и не особо автономны. Эти системы адаптируются к окружающей среде, автоматически отвечая на изменения в ней. Они запрограммированы адаптироваться к окружающей среде.

Но старые как мир истории научной фантастики говорят нам о том, что будет дальше. Нас беспокоит то, что произойдет, когда пилот-человек, водитель или оператор будет заменен программным обеспечением, которое самостоятельно решает, что делать.

Во время воздушного перелета система автопилота может удерживать самолет на определенной траектории, но пилот решает, какой путь выбрать, когда это сделать и что делать в чрезвычайной ситуации. Аналогичным образом круиз-контроль позволяет нашим автомобилям выполнять определенные действия самостоятельно, хотя именно водители принимают важные решения.

Но когда мы перейдем к настоящим автономным системам, программное обеспечение будет играть гораздо большую роль. Нам больше не понадобится человек для изменения маршрута самолета или сворачивания автомобиля на обочину.

Именно в этот момент люди начинают беспокоиться. Если машина действительно сможет принимать собственные решения, откуда нам знать, что это безопасно? Посмотрев пару «Терминаторов», мы задаемся вопросами, как можно доверять машинам? Для многих идея посадки в самолет, который летит сам по себе, уже кажется безумной, не говоря уж о том, чтобы позволить роботу отвезти себя по всем этим дорогам с безумцами за рулем.

Похоже на то, что мы находимся на развилке. Либо мы слепо доверяем этим машинам, либо мы от них отказываемся. Но возможен и третий вариант.

Когда мы имеем дело с другим человеком, мы не можем быть уверены в том, какое решение он примет, но мы можем предполагать в зависимости от того, что думаем о нем. Мы считаем, сколько раз человек лгал нам в прошлом, и записываем все его ошибки. Но мы не можем быть уверены наверняка, что этот человек еще раз обманет нас.

Наши автономные системы, с другой стороны, контролируются программным обеспечением, поэтому если мы можем изолировать все решения программного обеспечения на высоком уровне — те, которые должен принимать человек, — мы сможем детально проанализировать работу этих программ. С человеческим мозгом такое не пройдет.

Популярное направление исследований в информатике сегодня обеспокоено глубоким анализом программного обеспечения, а также приведение логических доказательств, что программное обеспечение всегда соответствует формальным требованиям. Этот подход, который называется формальной верификацией, особенно полезен для анализа и оценке критического программного обеспечения, которое влияет на безопасность людей, например системы энерго-, жизне- и транспортного обеспечения. Изолировав ПО, принимающего важные решения внутри автономной системы, мы можем проанализировать его работу с помощью формальной верификации.

В некоторых случаях мы можем доказать, что программное обеспечение никогда не примет плохое решение.

Процесс принятия решений — центральный при создании робота, которому можно доверять. Все это приводит к тому, что хотя несчастные случаи все еще могут произойти, мы можем убедиться, что система всегда старается их избежать. Этого недостаточно, но это решит некоторые из проблем старой научной фантастики.

Хотя мы не можем сказать, что робот никогда не причинит кому-нибудь вреда случайно, формальная верификация надежно докажет, что робот никогда не причинит вред намеренно. Зачастую, при оценке программного обеспечения и его работы, мы оцениваем не только то, что будет делать ПО, но и почему. Если люди будут уверены в том, что система не попытается причинить вред, вероятнее всего, они станут доверять таким системам немного больше. Вопрос не только в попытке причинить вред, но и в попытке избежать его нанесения.

И тут в дело вступают философские вопросы. Мы могли бы попытаться доказать, что робот никогда не навредит человеку сознательно. Но что делать медицинским и полицейским роботам? Первый может попытаться реанимировать кого-то, сделав искусственный массаж сердца. Но это может причинить человеку вред.

Полицейский робот отвечает за защиту населения, но что делать, если преступник стреляет в кого-то из ружья? Может ли робот причинить вред преступнику, чтобы предотвратить большую опасность?


 
Источник:  http://hi-news.ru


Поделитесь в социальных сетях

Комментарии 4

+1  
Guest 18.03.2014 21:58 [Материал]
Мне вот одно интересно - когда всех заменят роботами на какие средства люди будут приобретать у них товары - на пособие по безработице ? biggrin
+2  
sezam 18.03.2014 22:55 [Материал]
а на какие средства жили рабовладельцы?
Небось на хлеб и воду перебивались - ведь не работали,
бедняжки... wacko
+1  
xielf 18.03.2014 19:28 [Материал]
Пока не изобрели искусственный интеллект, роботы не опасны. Опасны люди, которые делают этих роботов, так как хз какую они дадут им программу.
+2  
sezam 18.03.2014 18:51 [Материал]
При чем тут ДОВЕРИЕ? Доверяя роботу, ты доверяешь
ЕГО РАЗРАБОТЧИКУ - то есть, человеку.

Полицейский робот отвечает за защиту населения, но что делать, если
преступник стреляет в кого-то из ружья? Может ли робот причинить вред
преступнику, чтобы предотвратить большую опасность?


если робот будет запрограммирован причинять вред -
он будет причинять вред.
Не будем же говорить всерьез о пресловутых "законах" робототехники.
Нет никаких законов - это литературный вымысел А.Азимова.
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]

Похожие материалы

ТОП Новостей
Материалов за сегодня нет.
Разговоры у камина
Календарь
Последние комментарии
Загадка Серро-Эль-Коно: Пирамида в сердце Амазонки
Дык изначально пирамиды египетские что из себя представляли? А на эту - видимо, что-то спроецировало (от Gr70)
«Шаттл» Топраккала
Геобетон просто, разновидность. А вот средство летающее для перемещения в ближней зоне, типа космиче (от Gr70)
Более 6 млн объектов недвижимости в Англии могут оказаться под водой к 2050 году
Ага, сначала везде падал уровень воды в озёрах и реках, а теперича типа опускания плавного всей Брит (от Gr70)
Загадка Хроновизора: Ватикан и тайны времени
Число 12 что-то напоминает, может, вечерю?
Могло быть событие, типа передачи информации в вид (от Gr70)

Тайна Джорджа Лукинса
Обычный одержимый. (от Gr70)