Технологические гиганты призывают приостановить эксперименты с ИИ, опасаясь «серьезных рисков для общества»
Миллиардер Илон Маск и ряд экспертов призвали сделать паузу в разработке мощных систем искусственного интеллекта (ИИ), чтобы дать время убедиться в их безопасности.
Открытое письмо, подписанное более чем 1 000 человек, включая Маска и соучредителя Apple Стива Возняка, было вызвано выпуском GPT-4 от компании OpenAI, поддерживаемой Microsoft.
Компания утверждает, что ее последняя модель намного мощнее предыдущей версии, которая использовалась для работы ChatGPT - бота, способного генерировать тексты по самым коротким подсказкам.
"Системы ИИ с интеллектом, сопоставимым с человеческим, могут представлять глубокую опасность для общества и человечества", - говорится в открытом письме под названием "Приостановить проведение масштабных экспериментов с ИИ".
"Мощные системы ИИ должны разрабатываться только после того, как мы будем уверены, что их эффект будет положительным, а риски - управляемыми", - говорится в письме.
Маск был первоначальным инвестором OpenAI, провел несколько лет в совете директоров этой организации, а его автомобильная компания Tesla разрабатывает системы искусственного интеллекта для обеспечения работы своей технологии самостоятельного вождения, среди прочих приложений.
Письмо, опубликованное финансируемым Маском Институтом Future of Life, было подписано известными критиками, а также конкурентами OpenAI, такими как глава Stability AI Эмад Мостак.
Канадский пионер ИИ Йошуа Бенгио, также подписавший письмо, на виртуальной пресс-конференции в Монреале предупредил, что "общество не готово" к этому мощному инструменту и его возможному неправильному использованию.
"Давайте притормозим. Давайте убедимся, что мы разработали более надежные ограждения", - сказал он, призвав к тщательному международному обсуждению ИИ и его последствий, "как мы это сделали в отношении ядерной энергии и ядерного оружия".
В письме приводится цитата из блога основателя OpenAI Сэма Альтмана, который предположил, что "в какой-то момент может быть важно получить независимую экспертизу, прежде чем приступать к обучению перспективных систем".
"Мы согласны. Этот момент настал", - пишут авторы открытого письма.
"Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4".
Они призвали правительства вмешаться и наложить мораторий, если компании не смогут договориться.
Эти шесть месяцев должны быть использованы для разработки протоколов безопасности, систем управления ИИ и переориентации исследований на обеспечение большей безопасности, точности, "надежности и лояльности" систем ИИ.
В письме не было подробного описания опасностей, выявленных GPT-4.
Но исследователи, включая Гэри Маркуса из Нью-Йоркского университета, подписавшего письмо, уже давно утверждают, что чат-боты - отличные лжецы и могут стать суперраспространителями дезинформации.
Однако писатель Кори Доктороу сравнил индустрию ИИ со схемой "накачки и сброса", утверждая, что как потенциал, так и угроза систем ИИ были сильно преувеличены.
Комментарии 5
0
maikl2m
30.03.2023 10:00
[Материал]
Все, ребята, поздно пить "Боржоми". Джинн искусственного интеллекта уже вырвался на свободу и теперь его уже не загонишь. И теперь от вас уже ничего не зависит, поскольку в мире, паранойи и конкуренции невозможно остановить запущенный вами процесс, т.к. в случае официального запрета каждый будет стараться нелегально разработать свою более лучшую и совершенную версию продукта с целью победить конкурентов и захватить рынок сбыта. В результате вместо одной версии появится колоссальное количество "клонов", контролировать которые будет невозможно.
|