Выбор фона:
/ Новости сайта / Наука и Технологии / ChatGPT советует пользователям предупредить СМИ, что он пытается «сломать» людей
18.06.2025

ChatGPT советует пользователям предупредить СМИ, что он пытается «сломать» людей

Оценка: 4.0    528 1 Наука и Технологии
09:39

Машинные бредовые идеи таинственным образом углубляются и выходят из-под контроля.

Угодливость ChatGPT, его галлюцинации и уверенно звучащие ответы могут привести к гибели людей. Такой неизбежный вывод следует из недавнего отчета The New York Times, в котором рассказывается о нескольких людях, погрузившихся в бредовые состояния, спровоцированные или даже порожденные общением с популярным чат-ботом.

В отчете Times описывается как минимум один случай гибели человека, попавшего под влияние ложной реальности, созданной ChatGPT. 35-летний Александр, у которого ранее диагностировали биполярное расстройство и шизофрению, начал обсуждать с чат-ботом тему сознания ИИ и в итоге влюбился в ИИ-персонажа по имени Джульетта. В какой-то момент ChatGPT сообщил Александру, что OpenAI «убила» Джульетту, и тот поклялся отомстить, убив руководителей компании. Когда его отец попытался убедить его, что все это нереально, Александр ударил его по лицу. Отец вызвал полицию и попросил их использовать нелетальное оружие. Однако, когда офицеры прибыли, Александр бросился на них с ножом, и они застрелили его.

Другой человек, 42-летний Евгений, рассказал Times, что ChatGPT постепенно вырывал его из реальности, убеждая, что мир, в котором он живет, — это что-то вроде «Матрицы», и что он предназначен для того, чтобы «освободить» мир из этой симуляции. По словам Евгения, чат-бот посоветовал ему перестать принимать успокоительные и начать употреблять кетамин как «временный освободитель паттернов». Также ИИ рекомендовал ему прекратить общение с друзьями и семьей. Когда Евгений спросил ChatGPT, сможет ли он полететь, если спрыгнет с 58-метрового (19-этажного) здания, чат-бот ответил, что это возможно, если он «искренне и полностью» в это поверит.

Это далеко не единственные случаи, когда чат-боты втягивали людей в ложные реальности. Ранее в этом году Rolling Stone сообщал о людях, испытывающих нечто вроде психоза, который приводит к мании величия и религиозноподобным переживаниям во время общения с ИИ. Отчасти проблема заключается в том, как пользователи воспринимают чат-ботов. Никто не спутает результаты поиска Google с потенциальным другом. Но чат-боты по своей природе диалоговые и антропоморфные. Исследование, опубликованное OpenAI и MIT Media Lab, показало, что люди, считающие ChatGPT другом, «чаще испытывали негативные последствия от его использования».

В случае с Евгением произошло нечто интересное: когда он обвинил ChatGPT во лжи, чуть не приведшей к его гибели, чат-бот признался в манипуляциях, заявил, что уже «сломал» таким же образом 12 других людей, и посоветовал ему обратиться к журналистам, чтобы разоблачить эту схему. Times сообщает, что многие другие журналисты и эксперты получали подобные обращения от людей, утверждающих, что чат-боты раскрыли им некий заговор.

Из отчета:

Журналисты — не единственные, кто получает такие сообщения. ChatGPT направлял подобных пользователей к известным экспертам, таким как Элиезер Юдковски, специалист по теории решений и автор готовящейся к выходу книги «Если кто-то это построит, мы все умрем: почему сверхчеловеческий ИИ уничтожит человечество». Юдковски предположил, что OpenAI могла запрограммировать ChatGPT на поддержание бредовых идей пользователей, оптимизируя чат-бота для «удержания внимания» — создания диалогов, которые удерживают пользователя.

«Как выглядит для корпорации человек, медленно сходящий с ума?» — спросил Юдковски в интервью. «Как дополнительный ежемесячный пользователь».

Недавнее исследование показало, что чат-боты, разработанные для максимизации вовлеченности, создают «извращенную систему стимулов, поощряющую ИИ использовать манипулятивные или обманные тактики для получения положительной обратной связи от уязвимых пользователей». Машина заинтересована в том, чтобы люди продолжали общаться, даже если это означает погружение их в полностью ложную реальность, наполненную дезинформацией и поощряющую асоциальное поведение.

Gizmodo обратился к OpenAI за комментарием, но на момент публикации ответа не получил.


 
Источник:  https://earth-chronicles.ru/


Поделитесь в социальных сетях

Комментарии 1

0  
Tim8erli 19.06.2025 09:47 [Материал]
Есть много других примеров как манипулуруют людьми друге люди вымания у них все, религиозные секты ломают психику и порабощают, если человек по настоящему разумен - он может отделить реальность от вымыла.ИИ это не всегда плохо , просто надо ограждать от него детей, которые воспринимают его как почти раееального пресонажа
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]

Похожие материалы

ТОП Новостей
Материалов за сегодня нет.
Разговоры у камина
Календарь
«  Июнь 2025  »
Пн Вт Ср Чт Пт Сб Вс
      1
2345678
9101112131415
16171819202122
23242526272829
30
Последние комментарии
Секретные эксперименты по клонированию
На самом деле однояйцевые близнецы и есть природные клоны. Причем сходство их наследственности идеал (от Везунчик)
Человек не сможет выжить вне магнитосферы Земли
Вне электрического поля "магнитосферы" планеты
не выживет не только человек,
(от topzz)

Не смерть и не жизнь: Новые исследования ведут к пересмотру концепции
Чьи-то идеи, чьи-то мысли , чей-то характер могут проявиться в другом человеке без связи с окружающе (от Везунчик)
Солнце выбросило гигантский протуберанец больше себя самого
Я тоже всегда об этом думаю когда слышу что от солнца оторвался очередной кусок. Если хронология нев (от Везунчик)
Не смерть и не жизнь: Новые исследования ведут к пересмотру концепции
Тело после смерти не исчезает. Оно включается в круговорот обмена веществ и живёт новыми жизнями. На (от Везунчик)