Ученые: контролировать обладающий сверхразумом ИИ невозможно!
По мере того, как ученые продолжают делать машины все более и более умными, многие люди задаются вопросом: «Что произойдет, если компьютеры станут слишком умными, и не будут ли они действовать исключительно ради собственного блага?». Индустрия развлечений — от «Матрицы» до «Терминатора» — уже начала задумываться, будут ли роботы будущего когда-нибудь угрожать человечеству. Международная группа ученых в ходе своего нового исследования пришла к выводу, что нет никакого способа остановить развитие машин. По их мнению, люди не смогут помешать супер-искусственному интеллекту делать то, что тот посчитает нужным.
Ученые из Центра изучения людей и машин при Институте Макса Планка начали размышлять над тем, как будет выглядеть такая машина. Представьте себе систему ИИ, интеллект которой намного превосходит человеческий – настолько, что она сможет учиться самостоятельно без дополнительного программирования. Исследователи говорят, что если такую машину подключить к Интернету, то ИИ получит доступ ко всем данным человечества и даже сможет взять под контроль другие машины по всему миру.
Авторы исследования ставят вопрос, что такой разум мог бы сделать со всей этой мощью? Будет ли все это работать во благо людей? Будут ли направлены огромные вычислительные мощности на решение таких проблем, как изменение климата? Или машина будет стремиться взять под контроль жизнь своих соседей-людей?
Контролируя неконтролируемое — опасности сверхразумного искусственного интеллекта
И специалисты по компьютерной технике, и философы изучали, есть ли способ удержать сверхразумные машины от потенциального нападения на их создателей, гарантируя что компьютеры будущего не причинят вреда своим хозяевам. Новое исследование, к сожалению, показывает, что удержать в узде сверхразумный ИИ практически невозможно.
«Суперинтеллектуальная машина, управляющая миром – сегодня это звучит как научная фантастика. Но уже есть машины, которые самостоятельно выполняют определенные сложные задачи, а программисты не до конца понимают, как те научились этому. Поэтому возникает вопрос, может ли это в какой-то момент стать неконтролируемым и опасным для человечества», — говорит соавтор исследования, руководитель Digital Mobilization Group в Центре людей и машин Мануэль Себриан.
В ходе исследования был создан теоретический алгоритм сдерживания, который не позволил бы ИИ причинять вред людям ни при каких обстоятельствах. В моделировании ИИ перестает функционировать, если исследователи сочтут его действия вредными. Авторы исследования говорят, что в реальном мире это может просто не сработать.
Комментарии 7
+1
Salto
25.01.2021 19:55
[Материал]
Вот удивительно, что все такого рода исследования приводят к одному и тому же выводу (что да, опасно, контролировать не сможем), и совершенно не ведут ни к каким практическим действиям по запрету создания особо умных ИИ, либо по ограничению их функционала.
А про "найдется дебил" -- да таких дебилов уже как грязи, все остановиться не могут. Ну и военные и прочие богатенькие буратино все же хотят невиданного оружия и власти. Только это оружие против них потом обернутьмя может. |
+1
Raoum
25.01.2021 09:39
[Материал]
С чего вы так решили? По физическим показателям машины многократно превосходят человека, по скорости вычислительный операций, способности систематизировать информацию тоже, да и много еще в чем - ну т.е. в этом при помощи машин мы себя превзошли... так почему вы решили что процесс не пойдет еще дальше? у вашего утверждения нет аргументов и основания
|
0
Guest
25.01.2021 10:39
[Материал]
Ойй как все запущенно... машины по скорости превосходят человека в решении конкретной задачи, а человеческий организм в паралельном режиме решает гигантское количество задач, человек способен систематизировать разнообразную информацию, машина только то чему ее обучили, потому что она не живой организм, у нее нет потребностей, нет чувств, не эмоций, нет эго... это просто тупая железяка... даже бухой работяга копающий канаву превосходит все то что создали и будет созданно в вычислительной технике потому что это инструмент, а бухой работяга это живой организм... :))
|
+1
Lex2015
24.01.2021 15:17
[Материал]
Т.е. мы изначально считаем, что основные правила робототехники им "побоку"?
Значит надо ввести "нулевое" правило - невозможность переписывания основных правил. Конечно, может найдется дибил, который модифицирует эти правила... но тогда в натуре надо возвращаться к камням и дубинкам, или заворачиваться в простыни и медленно ползти на кладбище... |