Выбор фона:
/ Новости сайта / Наука и Технологии / Стоит ли бояться искусственного интеллекта?
16.12.2012

Стоит ли бояться искусственного интеллекта?

Оценка: 0.0    2117 9 Наука и Технологии
22:16
16.12.2012 В следующем году на базе Кембриджского университета будет создан "Центр изучения глобальных рисков", одной из целей которого является определение принципов разработки "безопасного" искусственного интеллекта.

В программном заявлении основатели центра утверждают: "Многие ученые обеспокоены тем, что в результате развития человеческих технологий скоро возникнут новые риски, ставящие под вопрос существование нашего вида в целом". В качестве подобных опасностей в центре выделяют искусственный интеллект, климатические изменения, биотехнологии и нанотехнологии.

Глава создаваемого центра профессор философии Хью Прайс опубликовал в августе 2012 года статью "ИИ: сможем ли мы удержать его в коробке?", в которой призвал серьезно рассмотреть возможные угрозы: "Мы думаем, что в качестве первого правильного шага стоило бы прекратить относиться к искусственному интеллекту как к предмету научной фантастики и начать думать о нем как о части реальности, с которой мы или наши потомки могут рано или поздно столкнуться". Философ считает, что как только мы поставим такую проблему, то будет необходимо инициировать серьезные исследования того, как сделать разработку интеллектуальных машин наиболее безопасной с точки зрения будущего человечества. 

Основной причиной опасности «ультра-умных» машин создатели проекта видят принципиальное отличие их предполагаемого интеллекта от человеческого. Все ценности – такие, как «любовь, счастье и даже выживание», важны для нас, потому что у нас есть определенная эволюционная история – нет ни одной причины полагать, что машины будут разделять их с нами. По словам Прайса, машины, возможно, будут просто безразличны к нам, что повлечет за собой катастрофические последствия. 

Скорое создание интеллектуальных машин, которые будут "умнее" человека, предрекают, начиная с середины XX века. Аллен Ньюэлл и Герберт Саймон в 50-е, Марвин Минский в 60-70-е, и многие другие в более позднее время предсказывали решение проблемы разработки ИИ в течение 10-20 лет, начиная с момента заявления. Один из наиболее известных на сегодняшний момент футурологов Рэй Курцвейл предсказывает, что к 2029 году компьютер сможет пройти тест Тьюринга, что, по его мнению, будет доказывать у него наличия разума. Курцвейл в 2009 году основал Университет Сингулярности с целью изучении последствий "технологической сингулярности" - момента, когда скорость развития технологий достигнет немыслимых значений.

Безусловно, искусственный интеллект и гипотетические последствия его выхода из-под контроля человека являются одной из любимых тем современной философии. Однако большинство действующих исследователей в этой области на данный момент воздерживаются от каких-либо громких прогнозов о возможности серьезных прорывов в ближайшем будущем - проблемы сегодня скорее заключаются не в необходимых мощностях, а в отсутствии новых подходов.

ПОЛИТ.РУ



 


Поделитесь в социальных сетях

Комментарии 9

0  
spamdealer 17.12.2012 14:26 [Материал]
Самое главное, чтобы как с гмо или вакцинами не напороли, хотя лучше вообще без этого - все что создал человек имеет человеческие недостатки, а это жопа.
0  
sezam 16.12.2012 23:28 [Материал]
Не знаю, надо ли бояться ИИ,
но точно знаю, что надо опасаться людей-идиотов
0  
A_star 17.12.2012 08:09 [Материал]
Ну так эти люди и создадут интеллект по своему образу и подобию.
Нормальный человек решает текущие задачи, а не рвет одно место для создания чего-то ради его создания. Вот скажите, зачем им этот интеллект? В бога поиграть захотелось? Доиграются.
0  
sezam 17.12.2012 12:59 [Материал]
Бояться ИИ - все равно, что считать негров - нелюдьми.
Если ИИ (по-настоящему - интеллект) будет создан - то
неизбежно встанет вопрос о его гражданских правах.

Фильмы "Бегущий по лезвию бритвы" и "Я, робот"
раскрыли эту тему достаточно глубоко.
0  
Serano 17.12.2012 13:15 [Материал]
Насчет негров я бы поспорил, я с ними иногда работаю, так вот могу сказать что, работают они только из под палки или если видят пряник в конце туннеля, ну и насчет их интеллекта, так могу с уверенностью сказать, что виндовс в их мозгах развивается до уровня пятнадцатилетнего белого человека и потом зависает намертво cool
0  
spamdealer 17.12.2012 14:25 [Материал]
Ну не скажи, есть и среди них нормальные люди. имею в виду конечно американских представителей - хотя пиндосов и недолбливаю
0  
amplius 16.12.2012 22:26 [Материал]
Если он работает на windows, то не стоит. biggrin
0  
Rostislav 16.12.2012 22:47 [Материал]
+5 biggrin biggrin biggrin
0  
spamdealer 17.12.2012 14:23 [Материал]
+много
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]

Похожие материалы

Разговоры у камина
Календарь
Последние комментарии
Обнаружен странный объект, летящий в космосе с невероятной скоростью
Да. Тогда бы 45000 в сек. Ежели 15%. ОписАлись. Интересно бы взглянуть на первоисточник инфы. Абтора (от renmilk11)
Под поверхностью Марса на глубине 15 км обнаружен гигантский резервуар жидкой воды
Ну-ну. Мы тут на земле не можем геофизическими исследованиями с 100% уверенностью сказать, что на гл (от geolog)
Хакер обнаружил в архивах Ватикана сведения о настоящей истории человечества
Архивы Ватикана уже отцифрованы?Кем и когда?Да и зачем ?Выключи электричество-и всё ,приплыли. (от coka)
Хакер обнаружил в архивах Ватикана сведения о настоящей истории человечества
И кто сказал что это правда.Это одна из версий.Скорее всего специально вброшенных в инфопространство (от coka)