Выбор фона:
/ Новости сайта / Наука и Технологии / Учёные перестали понимать как именно ИИ принимает решения
12.12.2017

Учёные перестали понимать как именно ИИ принимает решения

Оценка: 5.0    6548 6 Наука и Технологии
09:37
Выступающие на конференции Neural Information Processing Systems специалисты в области искусственного интеллекта заявили, что перестали понимать принцип принятия решений, которым руководствуется ИИ, — сообщает Quartz.  По мнению экспертов, принимать как должное действия ИИ без понимания его логики — довольно легкомысленно, ведь чтобы люди приняли модели машинного обучения, им нужно знать, чем именно руководствуется ИИ, решая, как именно ему следует поступить в конкретной ситуации.

Часто решения, принятые ИИ, бывают предвзятыми, кроме того, его ассоциативное «мышление» тоже зачастую бывает не столь идеальным, в результате чего ИИ проводит неправильные аналогии. Такие ошибки могут дорого обойтись, если ИИ будет руководить сложными проектами, такими, к примеру, как полёт на Марс — в этом случае неверный поступок искусственного интеллекта может не только уничтожить дорогостоящее оборудование, но и повлечь за собой смерти людей. Поэтому, перед тем, как позволить ИИ самостоятельно принимать важные решения, необходимо сначала изучить принципы, которыми он руководствуется, — поясняет Мэтра Рагху, специалист по ИИ из Google.

На конференции она представила доклад, в котором описала процесс отслеживания действий отдельных частей нейросети. Отсматривая их по частям, можно понять логику ИИ, а затем, в случае чего, её и подкорректировать. Анализируя миллионы операций, она смогла выявить отдельные искусственные «нейроны», которые концентрировались на неверных представлениях, а затем отключить их, сделав ИИ более сговорчивым и правильным.
Это чем-то похоже на то, как учитель подаёт какой-то материал, а затем просит ученика пересказать своими словами, что именно он понял из лекции, — поясняет Кири Вагстафф ИИ-эксперт из NASA.

Судя по результатам этого исследования, верно понять действия искусственного интеллекта не так уж и сложно. Главное — решить проблему до того, как станет слишком поздно.

 


Поделитесь в социальных сетях

Комментарии 6

0  
msozzy 13.12.2017 09:53 [Материал]
Заведут они у себя робота уборщика и будет он за ними всё дерьмо из конторы выметать , а так-же устранять причины загрязнения - самих офисных работников . biggrin
0  
Проводник 12.12.2017 22:22 [Материал]
Решающая фраза
Цитата
Главное — решить проблему до того, как станет слишком поздно.

Сразу вспомнились слова генерала из одной комедии: "...Ещё рано... Товарищ генерал, может быть вызвать подкрепление? Ещё рано... Может вызвать подкрепление? Ещё рано... Может всё-таки вызвать подкрепление? Уже поздно..."
0  
renmilk11 12.12.2017 20:48 [Материал]
Логика ИИ отдана на откуп алгоритмистам людям. И над программами сейчас не трудятся одиночки математики. Группа разработчиков нейронной сети, используют опыт и наработки предшественников, не всегда вдаваясь в подробности отдельных подпрограмм, написанных в разных оболочках разработки. Перенеся аналоги в нейронную сеть- само сабой требуется тестирование. А хвалёная логика и интеллект определённого "железа" - набор
инструкций, заданных программистами с разным подходом к темам разработки,
культурными представлениями, разных поколений. Это что-то вроде оркестра -
у каждой подпрограммы свои ноты. И, соответственно, нужна программа или даже аппаратнопрограммный комплекс-дирижёр для контроля действий, прогноза результата работы специализированой сети.
Сколько не тестируй в безопасном режиме - всё равно если есть ошибка...
Вообщем вопрос стоит так - кто будет контролировать ИИ, ежели человека рядом не будет...да и не "угонится" человек, даже создавший за "проказами" шустрого своего детища! tongue Тем более , если речь идёт о космосе, АЭС, ВКС и т.д...
0  
l7yzo 12.12.2017 10:45 [Материал]
Вот интересно а где они тестируют ИИ ?
0  
kvantic 12.12.2017 09:49 [Материал]
еще чуть-чуть...и уже совсем близко технологическая сингулярность. а ведь предупреждали! "В 1958 году во время отвлеченных бесед между известными математиками Станиславом Уламом и Джоном фон Нейманом, оба обратили внимание на тот факт, что, поскольку технологический прогресс, определяющий то, как мы живем, постоянно ускоряется, то должен наступить такой момент, когда люди не смогут поспевать за технологиями -- то есть наступит то, что математики называют сингулярностью."
0  
Проводник 12.12.2017 22:37 [Материал]
Человек не сможет создать что-то уровнем выше себя самого, по определению, а уж тем более слиться с ним. Предел будет ограничен сознанием. Зависимость же станет источником гибели для зависимого, если он не выйдет из под контроля этой зависимости.
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]

Похожие материалы

ТОП Новостей
Материалов за сегодня нет.
Разговоры у камина
Календарь
Последние комментарии
Раскрыта природа аномалии в центре Омеги Центавра
Ну вот, очередное нечто от лентавру. До той звезды - около 130 миллиардов обычных лет, или 130 милли (от Gr70)
Обнаружен редкий и яркий космический взрыв
500 миллионов световых лет - это 500 миллиардов обычных лет. Где тут неправда? Когда дойдет свет от (от Gr70)
Гарвардские учёные пересмотрели условия жизни в космосе
Ой, "фонтаны рая" Артура Кларка не читали, по-видимому. Вот в таких орбитальных "коле (от Gr70)
Загадочные черви в Чернобыле оказались устойчивы к радиации
Мда, где ДНК нематод, а где - человека. Кажется, ДНК исследователей давно инопланетного происхождени (от Gr70)
Ученые выяснили, какие существа могут эволюционировать в обратном направлении
Тэк-с, газета вру стала аналогом лентавру. Никто обратно не эволюционирует, кроме человека, мчащегос (от Gr70)