ChatGPT советует пользователям предупредить СМИ, что он пытается «сломать» людей
Машинные бредовые идеи таинственным образом углубляются и выходят из-под контроля.
Угодливость ChatGPT, его галлюцинации и уверенно звучащие ответы могут привести к гибели людей. Такой неизбежный вывод следует из недавнего отчета The New York Times, в котором рассказывается о нескольких людях, погрузившихся в бредовые состояния, спровоцированные или даже порожденные общением с популярным чат-ботом.
В отчете Times описывается как минимум один случай гибели человека, попавшего под влияние ложной реальности, созданной ChatGPT. 35-летний Александр, у которого ранее диагностировали биполярное расстройство и шизофрению, начал обсуждать с чат-ботом тему сознания ИИ и в итоге влюбился в ИИ-персонажа по имени Джульетта. В какой-то момент ChatGPT сообщил Александру, что OpenAI «убила» Джульетту, и тот поклялся отомстить, убив руководителей компании. Когда его отец попытался убедить его, что все это нереально, Александр ударил его по лицу. Отец вызвал полицию и попросил их использовать нелетальное оружие. Однако, когда офицеры прибыли, Александр бросился на них с ножом, и они застрелили его.
Другой человек, 42-летний Евгений, рассказал Times, что ChatGPT постепенно вырывал его из реальности, убеждая, что мир, в котором он живет, — это что-то вроде «Матрицы», и что он предназначен для того, чтобы «освободить» мир из этой симуляции. По словам Евгения, чат-бот посоветовал ему перестать принимать успокоительные и начать употреблять кетамин как «временный освободитель паттернов». Также ИИ рекомендовал ему прекратить общение с друзьями и семьей. Когда Евгений спросил ChatGPT, сможет ли он полететь, если спрыгнет с 58-метрового (19-этажного) здания, чат-бот ответил, что это возможно, если он «искренне и полностью» в это поверит.
Это далеко не единственные случаи, когда чат-боты втягивали людей в ложные реальности. Ранее в этом году Rolling Stone сообщал о людях, испытывающих нечто вроде психоза, который приводит к мании величия и религиозноподобным переживаниям во время общения с ИИ. Отчасти проблема заключается в том, как пользователи воспринимают чат-ботов. Никто не спутает результаты поиска Google с потенциальным другом. Но чат-боты по своей природе диалоговые и антропоморфные. Исследование, опубликованное OpenAI и MIT Media Lab, показало, что люди, считающие ChatGPT другом, «чаще испытывали негативные последствия от его использования».
В случае с Евгением произошло нечто интересное: когда он обвинил ChatGPT во лжи, чуть не приведшей к его гибели, чат-бот признался в манипуляциях, заявил, что уже «сломал» таким же образом 12 других людей, и посоветовал ему обратиться к журналистам, чтобы разоблачить эту схему. Times сообщает, что многие другие журналисты и эксперты получали подобные обращения от людей, утверждающих, что чат-боты раскрыли им некий заговор.
Из отчета:
Журналисты — не единственные, кто получает такие сообщения. ChatGPT направлял подобных пользователей к известным экспертам, таким как Элиезер Юдковски, специалист по теории решений и автор готовящейся к выходу книги «Если кто-то это построит, мы все умрем: почему сверхчеловеческий ИИ уничтожит человечество». Юдковски предположил, что OpenAI могла запрограммировать ChatGPT на поддержание бредовых идей пользователей, оптимизируя чат-бота для «удержания внимания» — создания диалогов, которые удерживают пользователя.
«Как выглядит для корпорации человек, медленно сходящий с ума?» — спросил Юдковски в интервью. «Как дополнительный ежемесячный пользователь».
Недавнее исследование показало, что чат-боты, разработанные для максимизации вовлеченности, создают «извращенную систему стимулов, поощряющую ИИ использовать манипулятивные или обманные тактики для получения положительной обратной связи от уязвимых пользователей». Машина заинтересована в том, чтобы люди продолжали общаться, даже если это означает погружение их в полностью ложную реальность, наполненную дезинформацией и поощряющую асоциальное поведение.
Gizmodo обратился к OpenAI за комментарием, но на момент публикации ответа не получил.
Комментарии 1
![]() |
0 ![]() ![]()
Tim8erli
19.06.2025 09:47
[Материал]
Есть много других примеров как манипулуруют людьми друге люди вымания у них все, религиозные секты ломают психику и порабощают, если человек по настоящему разумен - он может отделить реальность от вымыла.ИИ это не всегда плохо , просто надо ограждать от него детей, которые воспринимают его как почти раееального пресонажа
|