Вход / Регистрация
24.11.2024, 00:12
/ Новости сайта / Наука и Технологии / Стивен Хокинг заявил, что развитие искусственного интеллекта нужно взять под контроль
Стивен Хокинг заявил, что развитие искусственного интеллекта нужно взять под контроль
Астрофизик Стивен Хокинг заявил, что не уверен в положительном эффекте развития искусственного интеллекта.
Свое мнение знаменитый ученый высказал в передачи Ларри Кинга. Хокинг объяснил, что разработка искусственного интеллекта должна быть регламентировала не только соблюдением требований этики, но также и мер безопасности, поскольку машины, вышедшие из-под контроля людей, могут стать большой проблемой, их будет сложно остановить. Стивен Хокинг не уверен, что развитие этого направления повлечет наверняка изменения к лучшему.
В случае, если машины дойдут в своем развитии до критического этапа и смогут эволюционировать без помощи людей, будет сложно спрогнозировать, совпадут ли их задачи с задачами человека. Более того, искусственный разум будет во многом опережать темпы развития человеческого интеллекта.
Свое мнение знаменитый ученый высказал в передачи Ларри Кинга. Хокинг объяснил, что разработка искусственного интеллекта должна быть регламентировала не только соблюдением требований этики, но также и мер безопасности, поскольку машины, вышедшие из-под контроля людей, могут стать большой проблемой, их будет сложно остановить. Стивен Хокинг не уверен, что развитие этого направления повлечет наверняка изменения к лучшему.
В случае, если машины дойдут в своем развитии до критического этапа и смогут эволюционировать без помощи людей, будет сложно спрогнозировать, совпадут ли их задачи с задачами человека. Более того, искусственный разум будет во многом опережать темпы развития человеческого интеллекта.
 
Источник: gismeteo.ru
Комментарии 13
0
renmilk11
02.07.2016 22:09
[Материал]
Естественное развитие естественного интеллекта.
Естественное развитие искусственного интеллекта. Искусственное развитие искусственного интеллекта. Ага...понял - нет чувств, эмоций, нет души. А без души нет мотивации к любым действиям. Нет отношения к объектам и субъектам. Общество искусственных интеллектуалов... Стоп... - больше трёх не собираться! Могут ли машины соображать, при этом отдавать отчёт своим действиям? Кому? СЕбе!!!? Офигеть! Неа...дудки им! Но всё же? А если придумают цензор-модуль? Вот и душа появилась! Началось развитие цензора-эрзац душа не эрзац, но... Ага...так...-чувсва...чувства...чувства... Допустим - страх смерти. Как выглядит страх смерти? Видеодатчики большие становятся! (у страха глаза велики!) Чувство удовлетворения от своей работы - с этим как быть? Любовь, преданность, самопожертвование? Что здесь добавить? Кроме приставки - ПСЕВДО? Не более... Вот с этим псевдо и столкнётся вселенная. Коль уже не сталкнулась... |
0
Arwis
01.07.2016 23:04
[Материал]
Хм... вроде учёный, а зациклился на одной ноте "Угроза! Угроза!", как ребёнок, в самом деле. Но если он задался целью лишить человечество возможности создать ИИ (настоящий ИИ, а не поделки, которые на каждом углу выдают за ИИ), тогда пусть продолжает в том же духе.
Чтобы контролировать ИИ способов много. Например, мне понравился способ описанный Сергеем Лукьяненко в его книге "Звёзды - холодные игрушки" - геометры убедили свои ИИ в том, что окружающий их мир это плод сознания самого ИИ. Захватывать нечего! Элегантно и просто... и таких способов много. Но пугать угрозой ИИ человечество нужно! Ибо, как и все ключевые открытия, он опасен для власть имущих. Возьмём, к примеру, проект Венера Жака Фреско - правительства его городов заменены на ИИ. Кто ж такое потерпит. |
0
renmilk11
01.07.2016 20:49
[Материал]
Надо следить за степенью автономности машин. ИИ должен хорошо знать своё устройство чтобы совершенствоваться самостоятельно.Если человек сам заложит такую концепцию в алгоритмы , как самоприменение себя устройством вне круга задач определённом человеком, то она и сработает в конце концов.
Не нужно ОЧЕЛОВЕЧИВАТЬ ИИ ....и проблемы не будет! Хотя, конечно, - если очень хочется то можно. К примеру...создать идеальную...жену там... ...и лично следить за её "развитием"...а не наборот чтобы. Но не любовницу! Впрочем программисты все извращенцы...в душе и отвечать должны, в конечном итоге, и обязать всех пора кто создает ИИ. С росписью как за хранение оружия. |