Выбор фона:
/ Новости сайта / Наука и Технологии / Технологические гиганты призывают приостановить эксперименты с ИИ, опасаясь «серьезных рисков для общества»
30.03.2023

Технологические гиганты призывают приостановить эксперименты с ИИ, опасаясь «серьезных рисков для общества»

Оценка: 0.0    1148 5 Наука и Технологии
09:06

Миллиардер Илон Маск и ряд экспертов призвали сделать паузу в разработке мощных систем искусственного интеллекта (ИИ), чтобы дать время убедиться в их безопасности.

Открытое письмо, подписанное более чем 1 000 человек, включая Маска и соучредителя Apple Стива Возняка, было вызвано выпуском GPT-4 от компании OpenAI, поддерживаемой Microsoft.

Компания утверждает, что ее последняя модель намного мощнее предыдущей версии, которая использовалась для работы ChatGPT - бота, способного генерировать тексты по самым коротким подсказкам.

"Системы ИИ с интеллектом, сопоставимым с человеческим, могут представлять глубокую опасность для общества и человечества", - говорится в открытом письме под названием "Приостановить проведение масштабных экспериментов с ИИ".

"Мощные системы ИИ должны разрабатываться только после того, как мы будем уверены, что их эффект будет положительным, а риски - управляемыми", - говорится в письме.

Маск был первоначальным инвестором OpenAI, провел несколько лет в совете директоров этой организации, а его автомобильная компания Tesla разрабатывает системы искусственного интеллекта для обеспечения работы своей технологии самостоятельного вождения, среди прочих приложений.

Письмо, опубликованное финансируемым Маском Институтом Future of Life, было подписано известными критиками, а также конкурентами OpenAI, такими как глава Stability AI Эмад Мостак.

Канадский пионер ИИ Йошуа Бенгио, также подписавший письмо, на виртуальной пресс-конференции в Монреале предупредил, что "общество не готово" к этому мощному инструменту и его возможному неправильному использованию.

"Давайте притормозим. Давайте убедимся, что мы разработали более надежные ограждения", - сказал он, призвав к тщательному международному обсуждению ИИ и его последствий, "как мы это сделали в отношении ядерной энергии и ядерного оружия".

В письме приводится цитата из блога основателя OpenAI Сэма Альтмана, который предположил, что "в какой-то момент может быть важно получить независимую экспертизу, прежде чем приступать к обучению перспективных систем".

"Мы согласны. Этот момент настал", - пишут авторы открытого письма.

"Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4".

Они призвали правительства вмешаться и наложить мораторий, если компании не смогут договориться.

Эти шесть месяцев должны быть использованы для разработки протоколов безопасности, систем управления ИИ и переориентации исследований на обеспечение большей безопасности, точности, "надежности и лояльности" систем ИИ.

В письме не было подробного описания опасностей, выявленных GPT-4.

Но исследователи, включая Гэри Маркуса из Нью-Йоркского университета, подписавшего письмо, уже давно утверждают, что чат-боты - отличные лжецы и могут стать суперраспространителями дезинформации.

Однако писатель Кори Доктороу сравнил индустрию ИИ со схемой "накачки и сброса", утверждая, что как потенциал, так и угроза систем ИИ были сильно преувеличены.


 
Источник:  https://earth-chronicles.ru/


Поделитесь в социальных сетях

Комментарии 5

0  
renmilk11 30.03.2023 22:16 [Материал]
Ai Ai cry
0  
Koriona 30.03.2023 20:26 [Материал]
Наши достижения равны нулю.
Простите , куда-то кусочек ссъелся * biggrin
0  
Koriona 30.03.2023 20:15 [Материал]
Все , что не дает развития, исключается из практики даже на экспериментальных планетах.
Извините, не моя правда, но я с ней согласна biggrin .
ИИ не может превосходить носителя(лей) его константы. Ибо тогда все наши достижения.
0  
sansan 30.03.2023 19:27 [Материал]
Невозможно фарш вернуть обратно в мясорубку, рано надо было думать
0  
maikl2m 30.03.2023 10:00 [Материал]
Все, ребята, поздно пить "Боржоми". Джинн искусственного интеллекта уже вырвался на свободу и теперь его уже не загонишь. И теперь от вас уже ничего не зависит, поскольку в мире, паранойи и конкуренции невозможно остановить запущенный вами процесс, т.к. в случае официального запрета каждый будет стараться нелегально разработать свою более лучшую и совершенную версию продукта с целью победить конкурентов и захватить рынок сбыта. В результате вместо одной версии появится колоссальное количество "клонов", контролировать которые будет невозможно.
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]

Похожие материалы

Разговоры у камина
Календарь
«  Март 2023  »
Пн Вт Ср Чт Пт Сб Вс
  12345
6789101112
13141516171819
20212223242526
2728293031
Последние комментарии
Пересмотр судьбы Вселенной: от бесконечного расширения к возможному гравитационному коллапсу
Вся "современная космология" - сказочная,
ни чем не подтвержденная болтология. topzz)

В самых чистых помещениях НАСА вопреки дезинфекции развиваются новые формы бактериальной жизни
Здесь подменено понятие отбор понятием эволюция. Приспособление под действием отбора это не тоже что (от Везунчик)
Ученые из США выяснили, обладатели какой группы крови живут дольше
Людей с первой группой больше всего в Африке,там есть регионы где она вообще преобладающая ,но амери (от Везунчик)
Улетающий 3I/ATLAS испустил две струи
Перескопы протрите, кучерявые! smile (от <a href=topzz)
Городские птицы вернули себе дикую форму клюва на время локдауна
Такие изменения в кормовой базе как исчезновение ресурса вызывают миграции . Питающиеся отходами уле (от Везунчик)