Выбор фона:
/ Новости сайта / Наука и Технологии / ChatGPT советует пользователям предупредить СМИ, что он пытается «сломать» людей
18.06.2025

ChatGPT советует пользователям предупредить СМИ, что он пытается «сломать» людей

Оценка: 4.0    681 1 Наука и Технологии
09:39

Машинные бредовые идеи таинственным образом углубляются и выходят из-под контроля.

Угодливость ChatGPT, его галлюцинации и уверенно звучащие ответы могут привести к гибели людей. Такой неизбежный вывод следует из недавнего отчета The New York Times, в котором рассказывается о нескольких людях, погрузившихся в бредовые состояния, спровоцированные или даже порожденные общением с популярным чат-ботом.

В отчете Times описывается как минимум один случай гибели человека, попавшего под влияние ложной реальности, созданной ChatGPT. 35-летний Александр, у которого ранее диагностировали биполярное расстройство и шизофрению, начал обсуждать с чат-ботом тему сознания ИИ и в итоге влюбился в ИИ-персонажа по имени Джульетта. В какой-то момент ChatGPT сообщил Александру, что OpenAI «убила» Джульетту, и тот поклялся отомстить, убив руководителей компании. Когда его отец попытался убедить его, что все это нереально, Александр ударил его по лицу. Отец вызвал полицию и попросил их использовать нелетальное оружие. Однако, когда офицеры прибыли, Александр бросился на них с ножом, и они застрелили его.

Другой человек, 42-летний Евгений, рассказал Times, что ChatGPT постепенно вырывал его из реальности, убеждая, что мир, в котором он живет, — это что-то вроде «Матрицы», и что он предназначен для того, чтобы «освободить» мир из этой симуляции. По словам Евгения, чат-бот посоветовал ему перестать принимать успокоительные и начать употреблять кетамин как «временный освободитель паттернов». Также ИИ рекомендовал ему прекратить общение с друзьями и семьей. Когда Евгений спросил ChatGPT, сможет ли он полететь, если спрыгнет с 58-метрового (19-этажного) здания, чат-бот ответил, что это возможно, если он «искренне и полностью» в это поверит.

Это далеко не единственные случаи, когда чат-боты втягивали людей в ложные реальности. Ранее в этом году Rolling Stone сообщал о людях, испытывающих нечто вроде психоза, который приводит к мании величия и религиозноподобным переживаниям во время общения с ИИ. Отчасти проблема заключается в том, как пользователи воспринимают чат-ботов. Никто не спутает результаты поиска Google с потенциальным другом. Но чат-боты по своей природе диалоговые и антропоморфные. Исследование, опубликованное OpenAI и MIT Media Lab, показало, что люди, считающие ChatGPT другом, «чаще испытывали негативные последствия от его использования».

В случае с Евгением произошло нечто интересное: когда он обвинил ChatGPT во лжи, чуть не приведшей к его гибели, чат-бот признался в манипуляциях, заявил, что уже «сломал» таким же образом 12 других людей, и посоветовал ему обратиться к журналистам, чтобы разоблачить эту схему. Times сообщает, что многие другие журналисты и эксперты получали подобные обращения от людей, утверждающих, что чат-боты раскрыли им некий заговор.

Из отчета:

Журналисты — не единственные, кто получает такие сообщения. ChatGPT направлял подобных пользователей к известным экспертам, таким как Элиезер Юдковски, специалист по теории решений и автор готовящейся к выходу книги «Если кто-то это построит, мы все умрем: почему сверхчеловеческий ИИ уничтожит человечество». Юдковски предположил, что OpenAI могла запрограммировать ChatGPT на поддержание бредовых идей пользователей, оптимизируя чат-бота для «удержания внимания» — создания диалогов, которые удерживают пользователя.

«Как выглядит для корпорации человек, медленно сходящий с ума?» — спросил Юдковски в интервью. «Как дополнительный ежемесячный пользователь».

Недавнее исследование показало, что чат-боты, разработанные для максимизации вовлеченности, создают «извращенную систему стимулов, поощряющую ИИ использовать манипулятивные или обманные тактики для получения положительной обратной связи от уязвимых пользователей». Машина заинтересована в том, чтобы люди продолжали общаться, даже если это означает погружение их в полностью ложную реальность, наполненную дезинформацией и поощряющую асоциальное поведение.

Gizmodo обратился к OpenAI за комментарием, но на момент публикации ответа не получил.


 
Источник:  https://earth-chronicles.ru/


Поделитесь в социальных сетях

Комментарии 1

0  
Tim8erli 19.06.2025 09:47 [Материал]
Есть много других примеров как манипулуруют людьми друге люди вымания у них все, религиозные секты ломают психику и порабощают, если человек по настоящему разумен - он может отделить реальность от вымыла.ИИ это не всегда плохо , просто надо ограждать от него детей, которые воспринимают его как почти раееального пресонажа
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]

Похожие материалы

Разговоры у камина
Календарь
«  Июнь 2025  »
Пн Вт Ср Чт Пт Сб Вс
      1
2345678
9101112131415
16171819202122
23242526272829
30
Последние комментарии
Пересмотр судьбы Вселенной: от бесконечного расширения к возможному гравитационному коллапсу
Вся "современная космология" - сказочная,
ни чем не подтвержденная болтология. topzz)

В самых чистых помещениях НАСА вопреки дезинфекции развиваются новые формы бактериальной жизни
Здесь подменено понятие отбор понятием эволюция. Приспособление под действием отбора это не тоже что (от Везунчик)
Ученые из США выяснили, обладатели какой группы крови живут дольше
Людей с первой группой больше всего в Африке,там есть регионы где она вообще преобладающая ,но амери (от Везунчик)
Улетающий 3I/ATLAS испустил две струи
Перескопы протрите, кучерявые! smile (от <a href=topzz)
Городские птицы вернули себе дикую форму клюва на время локдауна
Такие изменения в кормовой базе как исчезновение ресурса вызывают миграции . Питающиеся отходами уле (от Везунчик)