Выбор фона:
/ Новости сайта / Наука и Технологии / 5 ключевых проблем безопасности роботов
25.06.2016

5 ключевых проблем безопасности роботов

Оценка: 0.0    1586 1 Наука и Технологии
08:30
Google переживает за искусственный интеллект. Не за то, что он станет враждебным и захватит мир, а за то, что полезный домашний робот, например, может случайно полоснуть своего хозяина ножом. Одна из последних работ исследователей ИИ в Google посвящена «Конкретным проблемам безопасности ИИ». Согласитесь, неплохой способ перефразировать «как мы собираемся останавливать этих железобетонных убийц».

Чтобы ответить на этот вопрос, ученые Google сосредоточились на пяти «практических исследовательских проблемах» — ключевых проблемах, которые нужно принимать во внимание программистам, прежде чем они начнут создавать очередного трансформера. По определенным причинам, работа обращается к гипотетическим роботам-уборщикам, но в действительности ее результаты можно применить к любому агенту искусственного интеллекта, который будет управлять роботом, который будет взаимодействовать с людьми.

Проблемы заключаются в следующих пунктах:

    Как избежать негативных побочных эффектов: как не дать роботу опрокинуть книжный шкаф в яростном стремлении пропылесосить пол?

    Как избежать взлома ради награды: если робот запрограммирован получать удовольствие от уборки комнаты, как не дать ему пачкать место ради того, чтобы он просто получал удовольствие от многократной его уборки?

    Масштабируемость надзора: как много свободы в принятии решений дать роботу? Нужно ли ему спрашивать вас всякий раз, когда он двигает объекты в процессе уборки вашей комнаты или только если двигает вашу любимую вазу на прикроватной тумбе?

    Безопасное любопытство: как научить роботам утихомиривать свое любопытство? Исследователи Google приводят в пример робота, который учится работать шваброй. Как научить его, что мыть шваброй пол прекрасно, но задевать розетку в процессе уборки не стоит?

    Уважение личного пространства: как убедиться, что робот уважает пространство, в котором находится? Уборщик в вашей спальне будет действовать иначе, чем уборщик на заводе, но откуда он узнает эту разницу?

Выходит, все не так просто, как у Айзека Азимова в его «трех законах робототехники», но этого и следовало ожидать.

Некоторые из этих проблем, кажется, решаются весьма просто. В случае с последней, например, можно просто запрограммировать в роботе несколько предустановленных режимов. Когда он оказывается в промышленных условиях (а он узнает об этом, потому что вы ему скажете), он просто переключится на фабричный режим и будет усерднее махать щеткой.

Но другие проблемы настолько сильно зависят от контекста, что кажется практически невозможным запрограммировать робота на каждый сценарий. К примеру, взять проблему «безопасного любопытства». Роботу придется «принимать решения, которые не кажутся идеальными, но которые помогут агенту узнать его окружение». Роботизированные агенты определенно должны будут предпринимать действия, выходящие за рамки дозволенного, но как в таком случае оградить их от возможного нанесения вреда себе и своему окружению?

Работа предлагает ряд методов, в том числе создание моделируемых условиях, в которых роботизированный агент сможет показать себя перед выходом в реальный мир; правил «ограниченного любопытства», которые ограничат передвижение робота в заранее определенном пространстве; и старый, добрый, проверенный временем человеческий надзор — работа робота с надсмотрщиком, который сможет проверить его на прочность.

Нетрудно представить, что у каждого из таких подходов есть свои плюсы и минусы, и работа Google посвящена не прорывным решениям — она просто обрисовывает общие проблемы.

Несмотря на то, что такие люди, как Элон Маск и Стивен Хокинг, выражают глубокую озабоченность опасностью развития искусственного интеллекта, большинство компьютерных ученых сходятся во мнении, что эти проблемы еще далеки от нас. Прежде чем начать беспокоиться о том, что ИИ станет враждебным убийцем, нам нужно убедиться, что роботы, которые смогут работать на заводах и в домах, будут достаточно умны, чтобы случайно не убить и не покалечить человека. Такое уже случалось и определенно случится вновь.

У Google есть свой интерес в этом. Компания избавилась от Boston Dynamics, амбициозного производителя роботов, которого приобрела в 2013 году, но продолжает вкладывать деньги и ресурсы во все виды проектов искусственного интеллекта. Работа компании, наряду с исследованиями университетов и конкурентов, закладывает основу для компьютерных мозгов — программного обеспечения, которое будет оживлять физических роботов. Будет непросто убедиться, что эти мозги думают, как нужно.

 


Поделитесь в социальных сетях

Комментарии 1

0  
Анубис 25.06.2016 09:07 [Материал]
А, полоснет ведь... cool
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]

Похожие материалы

Разговоры у камина
Календарь
Последние комментарии
Как люди смогли выжить в ледниковый период при экстремальных условиях
Брехня всё это, человек не выживет в морозы, как согревались круглосуточно, как перемещались когда с (от amateurbeer)
Клитемнестра: Эволюция образа через призму искусства
Да ! Суровая правда эякуляции— три раза ,и твои сперматозоиды неподвижны! А если нет, то мы идем про (от Koriona)
Определены пути распространения опасного моллюска в водоемах России
Б….ть и что купаться с венками из папоротника теперь не комильфо? Да эти улиточки ни каким краем в с (от Koriona)
Обнаружение необычного древнего валуна доказало факты ритуальных практик
Если неандертальцы были радиоактивными, то немудрено, что продукт от скрещивания вымер от лучевой бо (от Gr70)
Эволюцию наблюдали в реальном времени
На фоне предстоящего затопления бриттов пальма первенства околонаучного бреда переехала в Северную А (от Gr70)