Выбор фона:
/ Новости сайта / Наука и Технологии / Искусственный интеллект может привести человечество к апокалипсису
19.01.2015

Искусственный интеллект может привести человечество к апокалипсису

Оценка: 0.0    2993 15 Наука и Технологии
13:56

В первое воскресенье 2015 года Элон Маск вышел на сцену закрытой конференции в Пуэрто-Рико, чтобы обсудить взрыв интеллекта. Этот страшный теоретический термин означает неконтролируемый семимильный прыжок в познавательной способности искусственного интеллекта. Как Маск, так и известный физик Стивен Хокинг считают, что однажды ИИ может стать приговором для человеческой расы.

Само появление такой фигуры, как Элон Маск, на конференции, которая долгое время была вотчиной смутных академиков, — знаменательное событие. Однако конференция с оптимистическим названием «Будущее ИИ: возможности и проблемы» стала беспрецедентной встречей светлейших умов человечества; приехал специалист по этике ИИ из Оксфорда Ник Бостром, основатель Skype Яан Таллинн и эксперт по ИИ в Google Шейн Легг.

Маск и Хокинг обеспокоены тем, что ИИ может привести к апокалипсису, хотя есть и более очевидные угрозы. За последние пять лет достижения в области искусственного интеллекта — в частности, в сфере глубоких нейронных сетей — вывели искусственный интеллект в нашу повседневную жизнь. Google, Facebook, Microsoft, Baidu — если назвать несколько компаний — нанимают специалистов по искусственному интеллекту с беспрецедентной скоростью и вводят сотни миллионов долларов в гонку за более совершенные алгоритмы и умные компьютеры.

Проблемы искусственного интеллекта, которые казались нерешабельными всего несколько лет назад, уже решены. Глубокое обучение позволило состояться качественному распознаванию речи. Google строит самоуправляемые автомобили и компьютерные системы, которые могут самостоятельно учиться определять кошек на видео. Роботы-собаки ходят почти так же, как их живые сородичи.

«Начинает работать компьютерное зрение, заработало распознавание речи. Есть определенное ускорение в развитии систем искусственного интеллекта, — говорит Барт Зельман, профессор Корнельского университета и этик ИИ, бывший на мероприятии с Маском. — Все это заставляет заниматься непосредственно этикой ИИ».

Учитывая этот существенный рост, Маск и другие ученые призывают тех, кто создает эти продукты, тщательно рассматривать этические последствия. На конференции в Пуэрто-Рико делегаты подписали открытие письмо, призывающее заняться тщательным изучением последствий развития искусственного интеллекта, чтобы избежать возможных ошибок. Маск тоже подписался. «Ведущие исследователи ИИ говорят, что безопасность ИИ — очень важная вещь. Я с ними согласен».

Google созывает совет

Девять исследователей из DeepMind, компании по разработке искусственного интеллекта, которую приобрела Google в прошлом году, тоже подписались под письмом. В целом история письма уходит корнями еще в 2011 год. Тогда Яан Таллинн познакомился с Демисом Хассабисом после того, как последний сделал презентацию на конференции по искусственному интеллекту. Не так давно Хассабис основал горячий стартап DeepMind, и Таллинн этим весьма заинтересовался. С момента основания Skype он стал евангелистом безопасного ИИ и искал сторонников. Двое мужчин разговорились об ИИ, и вскоре Таллинн инвестировал в DeepMind, а в прошлом году Google выложила 400 миллионов долларов за компанию с 50 сотрудниками. В один присест Google завладела крупнейшим доступным пулом талантов и экспертов в сфере глубокого обучения. Google не раскрывает амбиции DeepMind, но доподлинно известно, что DeepMind занимается исследованиями, которые позволят роботам или самоуправляемым автомобилям лучше ориентироваться в окружающей среде.

Все это беспокоит Таллинна. В презентации, которую он представил на конференции в Пуэрто-Рико, Таллинн вспомнил, как однажды за обедом Хассабис показал ему систему машинного обучения, которая могла играть в классическую аркадную игру 80-х годов Breakout. Мало того, что машина освоила игру, она еще и играла в нее с безжалостной эффективностью, что потрясло Таллинна. Хотя «технолог во мне удивился этому достижению, другая моя сторона задумалась о том, каким безжалостным может быть искусственный интеллект, демонстрирующий невероятные возможности», вспоминает Таллинн.

Разрешения и запреты этического плана уже принимались в истории, например, молекулярными биологами во время встречи 1975 года Asilomar Conference on Recombinant DNA (Асиломарская конференция по рекомбинантной ДНК), когда они договорились о стандартах безопасности, направленных на предотвращение создания искусственных генетически модифицированных организмов и создания угроз для общественности. Асиломарская конференция пока дала более конкретные результаты, нежели разговоры в Пуэрто-Рико.

На конференции в Пуэрто-Рико участники подписали письмо, излагающее приоритеты научных исследований в области ИИ — экономические и правовые последствия, а также безопасность систем ИИ. Вчера Элон Маск выделил 10 миллионов долларов на эти исследования (об этом ниже). Это важные первые шаги по удержанию роботов от разрушения экономики. Некоторые компании пошли еще дальше. В прошлом году канадский производитель робототехники Clearpath Robotics пообещал не создавать автономных роботов для использования в военных целях. «Люди, которые против роботов-убийц: мы поддерживаем вас», — написал технический директор Clearpath Robotics Райан Гэрипай на сайте компании.

Элон Маск

Обещания не строить терминаторов — это один шаг. Компании по разработке искусственного интеллекта вроде Google должны думать о безопасности и юридической ответственности своих самоуправляемых автомобилей, роботов, оставляющих людей без работы, и непреднамеренных последствий алгоритмов, которые могут вести себя несправедливо по отношению к людям. К примеру, этично ли с точки зрения Amazon продавать продукты по одной цене одним людям, и по другой — другим? Каковы гарантии того, что торговый алгоритм не обрушит товарные рынки? Что будет с людьми, которые работают таксистами и водителями автобусов в эпоху самоуправляемого транспорта?

Итамар Арель — основатель Binatix, компании глубокого обучения, которая работает на фондовом рынке. Он не был на конференции в Пуэрто-Рико, но подписал письмо вскоре после прочтения. По его словам, ввиду грядущей революции в сфере разумных алгоритмов и дешевых разумных роботов, все это нужно тщательно изучать и прорабатывать. «Пришло время выделить дополнительные ресурсы для понимания социальных последствий систем искусственного интеллекта, которые будут вытеснять голубые воротнички с рабочих мест, — говорит он. — На мой взгляд, очевидно, что они будут развиваться со скоростью, при которой общество не сможет их догнать. И это проблема».

СМИ могут как угодно раздувать из мухи слона, снабжая подобные материалы заголовками на тему того, что ИИ поработит мир, но на деле все куда прозаичнее. Просто последствиями ИИ будут заниматься на метауровне, силами советов по этике и консультантов по безопасности искусственного интеллекта.

10 миллионов на борьбу с искусственным интеллектом

Элон Маск переживает, что исследования искусственного интеллекта могут пойти не в ту степь, совершенно не в ту.

Может показаться неожиданным, что архитектор концептуальной высокоскоростной транспортной системы Hyperloop, генеральный директор компаний SpaceX и Tesla думает именно так. Но Маск настолько серьезно к этому относится, что после конференции в Пуэрто-Рико он пожертвовал 10 миллионов долларов Институту будущего жизни (Future of Life Institute, FLI), который будет разрабатывать глобальную исследовательскую программу, направленную на сохранение ИИ «полезным для человечества». Другими словами, Маск хочет, чтобы ИИ вырос исключительно в полезную, а не опасную вещь для людей.

Программа — и эти 10 миллионов долларов — будут спонсировать исследования по всему миру, направленные в этом русле. В понедельник FLI откроет портал, позволяющий ученым подавать заявки на гранты по программе.

Долгое время искусственный интеллект оставался в поле зрения Голливуда и научной фантастики либо обсуждался в абстрактной философии. Но по мере того, как гиганты вроде Google включают ИИ в саму сердцевину своих текущих и будущих технологий, а волна мелких стартапов создает бизнес на гребне этой науки, мы не можем отрицать мощное развитие ИИ. Однако дебаты по поводу этической стороны вопроса будут продолжаться еще долго.


 
Источник:  http://hi-news.ru

Поделитесь в социальных сетях


Комментарии 15

1 2 »
+1  
tera 20.01.2015 17:21 [Материал]
На картинке графическое представление анализа возможных аннигиляций на существующие конформации жизни...
+1  
Intueor 20.01.2015 03:20 [Материал]
Звучит как "мой топор может мне отрубить руку", или "огонь опасен - он сжигает". Было бы желание угробиться - способы найдутся. Если человечество само уходит в тотальную СПЕЦИАЛИЗАЦИЮ (одни рожают в "отсталых" областях тоннами, другие вкалывают и бухают, третьи ковыряют свою отдельную кочку на необозримом поле современных знаний, да ещё, к тому же, весьма сомнительных, четвёртые учат других тому, как надо учить других, чтобы они учили других, пятые вообще, кроме бабок, ни чем не интересуются, и т.д. [при этом, все перечисленные могут не иметь и малейшего понятия о том, как устроен их собственный холодильник с пивком]), то надо быть готовыми, что свято место УНИВЕРСАЛЬНО ориентированных разумных существ может занять кто-то другой. Пусть даже и производная раса. Если человечество деградирует - я порадуюсь за ИИ, как за более состоятельного наследника.
-2  
Gron 19.01.2015 23:53 [Материал]
Взаимно.
-1  
Gron 19.01.2015 23:46 [Материал]
Ладно. Пусть так. Пишите дальше. Раньше я просто старался пропускать ваши комментарии, но вот сегодня вчитался неосторожно. Был слегка шокирован. Дабы избежать дальнейших выяснений сути излагаемого вами, постараюсь больше этого не делать. Аминь.
-1  
Gron 19.01.2015 23:23 [Материал]
Тексты копируемые и ваши собственные слишком явно отличаются стилистически. Именно поэтому я интересовался источником "копипаста". Не хотите его раскрывать? Ваше право, но... Упорно выдавать чужое за своё нехорошо.
-1  
Gron 19.01.2015 23:06 [Материал]
Мне не нравится то, что ты сюда копируешь. Когда я начинаю спрашивать об источниках текстов, ты перестаёшь копировать, свирепеешь и начинаешь хамить уже собственными словами. Это типичное поведение сектантки.
-1  
Gron 19.01.2015 22:55 [Материал]
Те же яйца, вид сбоку. Даже после подстановки переведённых слов смысла не прибавилось. wacko
0  
Gron 19.01.2015 22:13 [Материал]
Цитата
анализ возможных аннигиляций на существующие конформации жизни
Явное и неприкрытое использование генератора бреда. wink
+2  
tera 19.01.2015 21:04 [Материал]
Вы хотите сказать, что получается как-то вот так:

0  
Alexei2012 19.01.2015 17:25 [Материал]
Органики или синтетики? То, что называют ИИ это пока еще не более, чем имитация. Впрочем, еще до появления реального машинного ИИ лавинообразное развитие робототехники грозит безработицей и социальными бунтами в самом недалеком будущем. Хотя машинный ИИ и никогда не может сравняться с интеллектом «органиков» (см. Пенроуза. Хаммерофа http://www.quantumconsciousness.org/ ) , его опасность не стоит недооценивать. Апокалипсис не апокалипсис, но конфликт машинного ИИ и «Органиков» не такая уж и фантастика. http://www.dailymotion.com/video/xtzbo2_transhumanism-vs-humanism_tech
1-10 11-13
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]
Разговоры у камина
Календарь