Земля. Хроники Жизни.
Главная | Регистрация | Вход
 
Суббота, 20.10.2018, 23:26
Приветствую Вас Гость |Личные сообщения() ·| PDA | RSS
Меню сайта
Форма входа
Логин:
Пароль:
Категории раздела
Аномалии [3438]
Атмосфера [1487]
Археология [4847]
Авторские статьи [487]
Вулканы [3264]
Война [1014]
Гипотезы [6182]
Другое [7537]
Животные [2744]
Землетрясения [4440]
Засуха [382]
Избранное [346]
Климат [3433]
Космос [10994]
Карстовые провалы [493]
Круги и рисунки на полях [527]
Медицина и здоровье [2004]
Наука [10763]
НЛО [4607]
Наводнения [3398]
Океан [824]
Оползни [674]
Пожары [910]
Прогноз [1284]
Политические факторы [3490]
Предсказания и пророчества [730]
Радиация [643]
Солнце [1966]
Стихия [3411]
Сверхъестественное [1768]
Технологии [5721]
Тайны истории [5663]
Ураганы [3102]
Факторы и аварии [7919]
Хочу все знать [30]
Этот безумный мир [1411]
Экология [1447]
Эпидемии [1043]
Эксклюзив [308]
Разговоры у камина
Статистика

Онлайн всего: 172
Пользователей: 165
Новых: 7
sprint22, Алан, kvantic, Serano, bond, Звента, mag-istr
Главная » 2015 » Июль » 28 » Использование ИИ в войнах приведет к Армагеддону
10:11
Использование ИИ в войнах приведет к Армагеддону

Ведущие исследователи искусственного интеллекта выражают опасения по поводу «гонки по созданию военного ИИ» и тех последствий, которые она может принести для всего человечества. Свои опасения ведущие специалисты в этой области выразили на странице открытого письма к Организации Объединенных Наций (ООН), чтобы та рассмотрела «вопрос запрета разработки автоматизированного вооружения».

В своем открытом письме, опубликованном на официальном сайте организации Future of Life Institute (FLI), такие известные фигуры, как Стивен Хокинг, Элон Маск и Ноам Хомски выражают свои опасения по поводу того, что оружие, способное автоматически «выбирать и атаковать цели без человеческого вмешательства», может стать «автоматом Калашникова завтрашнего дня» и обернуться триггером к развязыванию новых войн, терроризма и глобальной неустойчивости.

«Технология искусственного интеллекта достигла точки, после которой возможность развертывания и применения подобных систем становится вопросом уже не десятилетий, а всего нескольких лет», — указывается в открытом письме, в котором в качестве примере приводятся военные квадрокоптеры (их технология уже разработана и даже использовалась).

В письме также указывается, что несмотря на мнение о том, что технология автономного оружия может снизить человеческие потери на полях боя, это мнение является ошибочным, так как эта технология сама по себе может стать причиной новых войн.

«В отличие от атомного оружия, автономное вооружение не потребует использования дорогостоящего сырья и сверхтонкой ручной сборки, а следовательно, такое оружие станет массовым для любой крупной военной державы мира», — говорится в письме.

«Появление автономного оружия на черном рынке, в руках террористов и диктаторов, желающих подчинить себе волю народов, безумных палачей, которые будут выступать за этнические чистки, — все это в таком случае станет лишь вопросом времени. Автономное вооружение может идеально подходить для проведения убийств по политическим мотивам, использоваться в операциях по дестабилизации стран, подчинения населения и выборочного уничтожения конкретных этнических групп».

Заканчивается письмо предупреждением о том, что развитие автономного вооружения может наложить большую тень на область исследования искусственного интеллекта и вызвать «бурную и негативную реакцию общества», поставит крест на разработках тех технологий ИИ, которые действительно могли бы принести пользу человечеству. Авторы открытого письма выводят заключение, в котором говорят о «необходимости запрета на разработки автономного оружия, которое полностью бы исключало контроль со стороны человека» и взывают к помощи ООН.

Организация Future of Life Institute сама занимается вопросами искусственного интеллекта и указывает на то, что, по мнению специалистов ВВС США, «к 2030 году способности машин возрастут до такой степени, что человек станет самым слабым звеном в функционировании подобных систем». Сторонники, как и критики автономных систем вооружения, сходятся во мнении, что будет очень сложно установить четкую черту между тем, что можно, а что нельзя считать автономными системами вооружения.

Помимо Хокинга, Маска и Хомски и многих других видных ученых и деятелей, под открытым письмом, опубликованном на сайте FLI, подписались соучредитель компании Apple Стив Возняк, соучредитель Skype Ян Таллин, а также Демис Хассабис, исполнительный директор британской компании DeepMind, которая занимается исследованиями и разработками искусственного интеллекта (была куплена Google в прошлом году). Ранее на портале FLI уже публиковались аналогичные открытые письма. В одном из последних, например, опубликованных в январе этого года, звучали призывы к исследованию вопросов «общественной пользы», которую может принести развитие ИИ.
Категория: Технологии | Просмотров: 1180 | Добавил: СМЕРШ | Рейтинг: 5.0/| Оценить
Всего комментариев: 2
-1
1  
Бештимт используют...Но потерпят неудачу...в процессе...

0
2  
такоє ощущения что они хотят сами начать войну а спихнуть всьо на штучний разум

Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]
Поиск по сайту
Мониторинг
Сейсмическая активность
Солнечная активность
Фазы луны
3D Планета Земля
Солнечная система
Космическая погода
Веб камеры мира
Системы мониторинга
Ионосферная активность
Вспышки на Солнце
Мониторинг вулканов
ТОП Новостей
Аномалия в солнечной системе Октябрь 2018
НЛО возле Солнца
2 Гигантских НЛО - Стержни на орбите нашего Солнца
Парадокс существования Вселенной оказался неразреш...
Сверхмощная вспышка опустошит соседние планеты
Календарь
Архив записей
Новое на форуме

1. *ЗВЁЗДНЫЙ АСТРОНОМ*

(290)

2. Давайте предсказывать будущее

(4647)

3. Давайте слушать музыку.

(4311)

4. Фракталы

(90)

5. Прогулки в Квантовом Мире

(1157)

Последние комментарии

..сделать любые бактерии безвр...




Активность Солнца

При использовании материалов Земля - Хроники Жизни гиперссылка на сайт earth-chronicles.ru обязательна.
Рейтинг@Mail.ru Яндекс цитирования