Выбор фона:
/ Новости сайта / Наука и Технологии / Технологические гиганты призывают приостановить эксперименты с ИИ, опасаясь «серьезных рисков для общества»
30.03.2023

Технологические гиганты призывают приостановить эксперименты с ИИ, опасаясь «серьезных рисков для общества»

Оценка: 0.0    1054 5 Наука и Технологии
09:06

Миллиардер Илон Маск и ряд экспертов призвали сделать паузу в разработке мощных систем искусственного интеллекта (ИИ), чтобы дать время убедиться в их безопасности.

Открытое письмо, подписанное более чем 1 000 человек, включая Маска и соучредителя Apple Стива Возняка, было вызвано выпуском GPT-4 от компании OpenAI, поддерживаемой Microsoft.

Компания утверждает, что ее последняя модель намного мощнее предыдущей версии, которая использовалась для работы ChatGPT - бота, способного генерировать тексты по самым коротким подсказкам.

"Системы ИИ с интеллектом, сопоставимым с человеческим, могут представлять глубокую опасность для общества и человечества", - говорится в открытом письме под названием "Приостановить проведение масштабных экспериментов с ИИ".

"Мощные системы ИИ должны разрабатываться только после того, как мы будем уверены, что их эффект будет положительным, а риски - управляемыми", - говорится в письме.

Маск был первоначальным инвестором OpenAI, провел несколько лет в совете директоров этой организации, а его автомобильная компания Tesla разрабатывает системы искусственного интеллекта для обеспечения работы своей технологии самостоятельного вождения, среди прочих приложений.

Письмо, опубликованное финансируемым Маском Институтом Future of Life, было подписано известными критиками, а также конкурентами OpenAI, такими как глава Stability AI Эмад Мостак.

Канадский пионер ИИ Йошуа Бенгио, также подписавший письмо, на виртуальной пресс-конференции в Монреале предупредил, что "общество не готово" к этому мощному инструменту и его возможному неправильному использованию.

"Давайте притормозим. Давайте убедимся, что мы разработали более надежные ограждения", - сказал он, призвав к тщательному международному обсуждению ИИ и его последствий, "как мы это сделали в отношении ядерной энергии и ядерного оружия".

В письме приводится цитата из блога основателя OpenAI Сэма Альтмана, который предположил, что "в какой-то момент может быть важно получить независимую экспертизу, прежде чем приступать к обучению перспективных систем".

"Мы согласны. Этот момент настал", - пишут авторы открытого письма.

"Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4".

Они призвали правительства вмешаться и наложить мораторий, если компании не смогут договориться.

Эти шесть месяцев должны быть использованы для разработки протоколов безопасности, систем управления ИИ и переориентации исследований на обеспечение большей безопасности, точности, "надежности и лояльности" систем ИИ.

В письме не было подробного описания опасностей, выявленных GPT-4.

Но исследователи, включая Гэри Маркуса из Нью-Йоркского университета, подписавшего письмо, уже давно утверждают, что чат-боты - отличные лжецы и могут стать суперраспространителями дезинформации.

Однако писатель Кори Доктороу сравнил индустрию ИИ со схемой "накачки и сброса", утверждая, что как потенциал, так и угроза систем ИИ были сильно преувеличены.


 
Источник:  https://earth-chronicles.ru/


Поделитесь в социальных сетях

Комментарии 5

0  
renmilk11 30.03.2023 22:16 [Материал]
Ai Ai cry
0  
Koriona 30.03.2023 20:26 [Материал]
Наши достижения равны нулю.
Простите , куда-то кусочек ссъелся * biggrin
0  
Koriona 30.03.2023 20:15 [Материал]
Все , что не дает развития, исключается из практики даже на экспериментальных планетах.
Извините, не моя правда, но я с ней согласна biggrin .
ИИ не может превосходить носителя(лей) его константы. Ибо тогда все наши достижения.
0  
sansan 30.03.2023 19:27 [Материал]
Невозможно фарш вернуть обратно в мясорубку, рано надо было думать
0  
maikl2m 30.03.2023 10:00 [Материал]
Все, ребята, поздно пить "Боржоми". Джинн искусственного интеллекта уже вырвался на свободу и теперь его уже не загонишь. И теперь от вас уже ничего не зависит, поскольку в мире, паранойи и конкуренции невозможно остановить запущенный вами процесс, т.к. в случае официального запрета каждый будет стараться нелегально разработать свою более лучшую и совершенную версию продукта с целью победить конкурентов и захватить рынок сбыта. В результате вместо одной версии появится колоссальное количество "клонов", контролировать которые будет невозможно.
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]

Похожие материалы

Разговоры у камина
Календарь
Последние комментарии
Американские ученые добились бессмертия для мухи
На 139 тысяч нейронов 54 миллиона синапсов, не слишком ли много? (от Snork)
Любовь и предательство: драма Наполеона и Жозефины
Цитата Кориона "Жозефина была постоянно под градусами , впрочем и сам Наполеон тоже. Так что сл (от Катенька)
Любовь и предательство: драма Наполеона и Жозефины
И где тут мужененавистничество? Просто реальность. Лично я всем мужчинам, которые были со мной рядом (от Koriona)
Московские археологи нашли 400-летние изразцы с изображением кошки
Возможно в то время это уже была и кошка ,но всё идёт из Анатолии, всё начиналось с Чатал Гуюка. Кру (от Везунчик)