Выбор фона:
/ Новости сайта / Наука и Технологии / Стивен Хокинг заявил, что развитие искусственного интеллекта нужно взять под контроль
01.07.2016

Стивен Хокинг заявил, что развитие искусственного интеллекта нужно взять под контроль

Оценка: 5.0    2024 13 Наука и Технологии
16:01
Астрофизик Стивен Хокинг заявил, что не уверен в положительном эффекте развития искусственного интеллекта.

Свое мнение знаменитый ученый высказал в передачи Ларри Кинга. Хокинг объяснил, что разработка искусственного интеллекта должна быть регламентировала не только соблюдением требований этики, но также и мер безопасности, поскольку машины, вышедшие из-под контроля людей, могут стать большой проблемой, их будет сложно остановить. Стивен Хокинг не уверен, что развитие этого направления повлечет наверняка изменения к лучшему.

В случае, если машины дойдут в своем развитии до критического этапа и смогут эволюционировать без помощи людей, будет сложно спрогнозировать, совпадут ли их задачи с задачами человека. Более того, искусственный разум будет во многом опережать темпы развития человеческого интеллекта.


 
Источник:  gismeteo.ru

Поделитесь в социальных сетях


Комментарии 13

0  
renmilk11 03.07.2016 19:46 [Материал]
Назовите 5 признаков искусственного интеллекта.
0  
renmilk11 02.07.2016 22:09 [Материал]
Естественное развитие естественного интеллекта.
Естественное развитие искусственного интеллекта.
Искусственное развитие искусственного интеллекта.
Ага...понял - нет чувств, эмоций, нет души.
А без души нет мотивации к любым действиям. Нет отношения к объектам и субъектам. Общество искусственных интеллектуалов...
Стоп... - больше трёх не собираться! Могут ли машины соображать, при этом отдавать отчёт своим действиям? Кому? СЕбе!!!? Офигеть! Неа...дудки им!
Но всё же? А если придумают цензор-модуль? Вот и душа появилась!
Началось развитие цензора-эрзац душа не эрзац, но...
Ага...так...-чувсва...чувства...чувства...
Допустим - страх смерти. Как выглядит страх смерти? Видеодатчики большие становятся! (у страха глаза велики!)
Чувство удовлетворения от своей работы - с этим как быть?
Любовь, преданность, самопожертвование?
Что здесь добавить? Кроме приставки - ПСЕВДО? Не более...
Вот с этим псевдо и столкнётся вселенная. Коль уже не сталкнулась...
0  
Славачик 02.07.2016 01:52 [Материал]
...
.....
Хокинг уже ничего не думает, разве не понятно? Пользуются его именем! !!!хватит уже его мучить sad
0  
Arwis 01.07.2016 23:04 [Материал]
Хм... вроде учёный, а зациклился на одной ноте "Угроза! Угроза!", как ребёнок, в самом деле. Но если он задался целью лишить человечество возможности создать ИИ (настоящий ИИ, а не поделки, которые на каждом углу выдают за ИИ), тогда пусть продолжает в том же духе.
Чтобы контролировать ИИ способов много. Например, мне понравился способ описанный Сергеем Лукьяненко в его книге "Звёзды - холодные игрушки" - геометры убедили свои ИИ в том, что окружающий их мир это плод сознания самого ИИ. Захватывать нечего! Элегантно и просто... и таких способов много.
Но пугать угрозой ИИ человечество нужно! smile Ибо, как и все ключевые открытия, он опасен для власть имущих. Возьмём, к примеру, проект Венера Жака Фреско - правительства его городов заменены на ИИ. Кто ж такое потерпит.
0  
Oxford105 02.07.2016 21:39 [Материал]
Чтобы что-то сделать, нужно подумать, что из этого выйдет, что может произойти и предотвратить плохие последствия
0  
беZтолоч 01.07.2016 21:32 [Материал]
кста....раз уш такатемма давно хотел выразить своё фи этому айкюисту - яканешпанимаю заботу о ушербных но указывать нормальным мужикам где стоять с кем лежать....... cool
0  
Oxford105 02.07.2016 21:36 [Материал]
Многие по сравнению с этим "ущербным" как раз-таки и являются ущербными
0  
renmilk11 01.07.2016 20:49 [Материал]
Надо следить за степенью автономности машин. ИИ должен хорошо знать своё устройство чтобы совершенствоваться самостоятельно.Если человек сам заложит такую концепцию в алгоритмы , как самоприменение себя устройством вне круга задач определённом человеком, то она и сработает в конце концов.
Не нужно ОЧЕЛОВЕЧИВАТЬ ИИ ....и проблемы не будет! Хотя, конечно, biggrin - если очень хочется то можно. К примеру...создать идеальную...жену happy там...
...и лично следить за её "развитием"...а не наборот чтобы.
Но не любовницу!
Впрочем программисты все извращенцы...в душе biggrin и отвечать должны, в конечном итоге, и обязать всех пора кто создает ИИ. С росписью как за хранение оружия.
0  
krom 01.07.2016 20:45 [Материал]
может и к лучшему если нас машины покрашат
а то как в песне ,,срать вокруг да друг друга мочить,только так мы умеем все жить,,
cool
0  
Natali 01.07.2016 19:41 [Материал]
Земля это не полигон для развития (ИИ), ОНА - ПЛАНЕТА ГАЯ нам дана для развития духа и тела
0  
JKMUF 01.07.2016 21:59 [Материал]
Это вам технически высокоразвитые планетяне на ухо нашептали ? Ну прально , зачем им конкуренты в космосе....
0  
Guzyal 01.07.2016 17:43 [Материал]
может быть, но машины так нам нужны, без техники нам сейчас никуда
0  
EdMa 01.07.2016 19:22 [Материал]
И кто Вам это сказал? Почитайте: "Фредерик Браун. Волновики"
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]
ТОП Новостей
Материалов за сегодня нет.
Разговоры у камина
Календарь