Вход / Регистрация
21.11.2024, 21:43
/ Новости сайта / Наука и Технологии / Искусственный интеллект может стать последним достижением человечества
Искусственный интеллект может стать последним достижением человечества
Ведущие учёные, специалисты в области информационных технологий и предприниматели и разных стран разместили на сайте Future Life Institute открытое письмо с призывом не допустить создания «роботов-убийц». Речь идёт об автономных системах вооружения, работа над которыми тесно связана с вопросами морали и этики. Авторы письма уверены, что искусственный интеллект может стать последней революцией в методах ведения войны.
Развитие современных военных технологий всё чаще направлено на разработку оружия, работающего в автономном режиме. На этот раз предупреждение об угрозе создания боевых роботов прозвучало со стороны учёных. Более тысячи инженеров и исследователей подписали открытое письмо. Оно было представлено на ежегодной Международной конференции по искусственному интеллекту, которая прошла в Буэнос-Айресе. Среди подписавших документ — Тоби Уолш, профессор университета Нового Южного Уэльса и специалист в области искусственного интеллекта.
«Создание автономного наступательного оружия, которое мы призываем запретить, может спровоцировать очередную гонку вооружений, если ничего не предпринять. Некоторые утверждают, что эта технология может изменить способы ведения войны так же, как два предыдущих изобретения — порох и ядерная бомба. Разработку автономных видов оружия не остановить, но мы можем запретить компаниям-производителям его продавать. Так, например, ООН наложила запрет на использование ослепляющего лазера», — рассказал Уолш.
Среди подписавшихся — всемирно известные эксперты в области высоких технологий и робототехники.
Физик Стивен Хокинг опасается, что дальнейшее развитие искусственного интеллекта может стать последним значимым событием в истории человечества, если оно не поймёт, как избежать связанных с этим рисков.
Один из основателей Apple Стив Возняк уверен: велика вероятность того, что роботы поумнеют настолько, что будут думать за нас.
Тоби Уолш убеждён, что эту проблему должно решать общество в целом.
«Опасность заключается не в развитом искусственном интеллекте, а в недоразвитом. Мы ведь доверяем самые важные функции не самым умным программам. Есть гораздо более злободневные проблемы, чем те, что показаны в «Терминаторе» и других подобных фильмах. И их нужно решать сообща. Наша задача — объяснить людям, какие есть возможности использования боевой техники. А дальше мы должны подумать, как адаптировать нашу жизнь, наши законы и наше общество к изменениям, которые она принесёт», — заключил профессор.
Развитие современных военных технологий всё чаще направлено на разработку оружия, работающего в автономном режиме. На этот раз предупреждение об угрозе создания боевых роботов прозвучало со стороны учёных. Более тысячи инженеров и исследователей подписали открытое письмо. Оно было представлено на ежегодной Международной конференции по искусственному интеллекту, которая прошла в Буэнос-Айресе. Среди подписавших документ — Тоби Уолш, профессор университета Нового Южного Уэльса и специалист в области искусственного интеллекта.
«Создание автономного наступательного оружия, которое мы призываем запретить, может спровоцировать очередную гонку вооружений, если ничего не предпринять. Некоторые утверждают, что эта технология может изменить способы ведения войны так же, как два предыдущих изобретения — порох и ядерная бомба. Разработку автономных видов оружия не остановить, но мы можем запретить компаниям-производителям его продавать. Так, например, ООН наложила запрет на использование ослепляющего лазера», — рассказал Уолш.
Среди подписавшихся — всемирно известные эксперты в области высоких технологий и робототехники.
Физик Стивен Хокинг опасается, что дальнейшее развитие искусственного интеллекта может стать последним значимым событием в истории человечества, если оно не поймёт, как избежать связанных с этим рисков.
Один из основателей Apple Стив Возняк уверен: велика вероятность того, что роботы поумнеют настолько, что будут думать за нас.
Тоби Уолш убеждён, что эту проблему должно решать общество в целом.
«Опасность заключается не в развитом искусственном интеллекте, а в недоразвитом. Мы ведь доверяем самые важные функции не самым умным программам. Есть гораздо более злободневные проблемы, чем те, что показаны в «Терминаторе» и других подобных фильмах. И их нужно решать сообща. Наша задача — объяснить людям, какие есть возможности использования боевой техники. А дальше мы должны подумать, как адаптировать нашу жизнь, наши законы и наше общество к изменениям, которые она принесёт», — заключил профессор.