Вход / Регистрация
16.11.2024, 05:15
Учёные перестали понимать как именно ИИ принимает решения
Выступающие на конференции Neural Information Processing Systems специалисты в области искусственного интеллекта заявили, что перестали понимать принцип принятия решений, которым руководствуется ИИ, — сообщает Quartz. По мнению экспертов, принимать как должное действия ИИ без понимания его логики — довольно легкомысленно, ведь чтобы люди приняли модели машинного обучения, им нужно знать, чем именно руководствуется ИИ, решая, как именно ему следует поступить в конкретной ситуации.
Часто решения, принятые ИИ, бывают предвзятыми, кроме того, его ассоциативное «мышление» тоже зачастую бывает не столь идеальным, в результате чего ИИ проводит неправильные аналогии. Такие ошибки могут дорого обойтись, если ИИ будет руководить сложными проектами, такими, к примеру, как полёт на Марс — в этом случае неверный поступок искусственного интеллекта может не только уничтожить дорогостоящее оборудование, но и повлечь за собой смерти людей. Поэтому, перед тем, как позволить ИИ самостоятельно принимать важные решения, необходимо сначала изучить принципы, которыми он руководствуется, — поясняет Мэтра Рагху, специалист по ИИ из Google.
На конференции она представила доклад, в котором описала процесс отслеживания действий отдельных частей нейросети. Отсматривая их по частям, можно понять логику ИИ, а затем, в случае чего, её и подкорректировать. Анализируя миллионы операций, она смогла выявить отдельные искусственные «нейроны», которые концентрировались на неверных представлениях, а затем отключить их, сделав ИИ более сговорчивым и правильным.
Часто решения, принятые ИИ, бывают предвзятыми, кроме того, его ассоциативное «мышление» тоже зачастую бывает не столь идеальным, в результате чего ИИ проводит неправильные аналогии. Такие ошибки могут дорого обойтись, если ИИ будет руководить сложными проектами, такими, к примеру, как полёт на Марс — в этом случае неверный поступок искусственного интеллекта может не только уничтожить дорогостоящее оборудование, но и повлечь за собой смерти людей. Поэтому, перед тем, как позволить ИИ самостоятельно принимать важные решения, необходимо сначала изучить принципы, которыми он руководствуется, — поясняет Мэтра Рагху, специалист по ИИ из Google.
На конференции она представила доклад, в котором описала процесс отслеживания действий отдельных частей нейросети. Отсматривая их по частям, можно понять логику ИИ, а затем, в случае чего, её и подкорректировать. Анализируя миллионы операций, она смогла выявить отдельные искусственные «нейроны», которые концентрировались на неверных представлениях, а затем отключить их, сделав ИИ более сговорчивым и правильным.
Это чем-то похоже на то, как учитель подаёт какой-то материал, а затем просит ученика пересказать своими словами, что именно он понял из лекции, — поясняет Кири Вагстафф ИИ-эксперт из NASA.
Судя по результатам этого исследования, верно понять действия искусственного интеллекта не так уж и сложно. Главное — решить проблему до того, как станет слишком поздно.
 
Комментарии 6
0
Проводник
12.12.2017 22:22
[Материал]
Решающая фраза
Цитата Главное — решить проблему до того, как станет слишком поздно. Сразу вспомнились слова генерала из одной комедии: "...Ещё рано... Товарищ генерал, может быть вызвать подкрепление? Ещё рано... Может вызвать подкрепление? Ещё рано... Может всё-таки вызвать подкрепление? Уже поздно..." |
0
renmilk11
12.12.2017 20:48
[Материал]
Логика ИИ отдана на откуп алгоритмистам людям. И над программами сейчас не трудятся одиночки математики. Группа разработчиков нейронной сети, используют опыт и наработки предшественников, не всегда вдаваясь в подробности отдельных подпрограмм, написанных в разных оболочках разработки. Перенеся аналоги в нейронную сеть- само сабой требуется тестирование. А хвалёная логика и интеллект определённого "железа" - набор
инструкций, заданных программистами с разным подходом к темам разработки, культурными представлениями, разных поколений. Это что-то вроде оркестра - у каждой подпрограммы свои ноты. И, соответственно, нужна программа или даже аппаратнопрограммный комплекс-дирижёр для контроля действий, прогноза результата работы специализированой сети. Сколько не тестируй в безопасном режиме - всё равно если есть ошибка... Вообщем вопрос стоит так - кто будет контролировать ИИ, ежели человека рядом не будет...да и не "угонится" человек, даже создавший за "проказами" шустрого своего детища! Тем более , если речь идёт о космосе, АЭС, ВКС и т.д... |
0
kvantic
12.12.2017 09:49
[Материал]
еще чуть-чуть...и уже совсем близко технологическая сингулярность. а ведь предупреждали! "В 1958 году во время отвлеченных бесед между известными математиками Станиславом Уламом и Джоном фон Нейманом, оба обратили внимание на тот факт, что, поскольку технологический прогресс, определяющий то, как мы живем, постоянно ускоряется, то должен наступить такой момент, когда люди не смогут поспевать за технологиями -- то есть наступит то, что математики называют сингулярностью."
|