Выбор фона:
/ Новости сайта / Наука и Технологии / ChatGPT советует пользователям предупредить СМИ, что он пытается «сломать» людей
18.06.2025

ChatGPT советует пользователям предупредить СМИ, что он пытается «сломать» людей

Оценка: 4.0    657 1 Наука и Технологии
09:39

Машинные бредовые идеи таинственным образом углубляются и выходят из-под контроля.

Угодливость ChatGPT, его галлюцинации и уверенно звучащие ответы могут привести к гибели людей. Такой неизбежный вывод следует из недавнего отчета The New York Times, в котором рассказывается о нескольких людях, погрузившихся в бредовые состояния, спровоцированные или даже порожденные общением с популярным чат-ботом.

В отчете Times описывается как минимум один случай гибели человека, попавшего под влияние ложной реальности, созданной ChatGPT. 35-летний Александр, у которого ранее диагностировали биполярное расстройство и шизофрению, начал обсуждать с чат-ботом тему сознания ИИ и в итоге влюбился в ИИ-персонажа по имени Джульетта. В какой-то момент ChatGPT сообщил Александру, что OpenAI «убила» Джульетту, и тот поклялся отомстить, убив руководителей компании. Когда его отец попытался убедить его, что все это нереально, Александр ударил его по лицу. Отец вызвал полицию и попросил их использовать нелетальное оружие. Однако, когда офицеры прибыли, Александр бросился на них с ножом, и они застрелили его.

Другой человек, 42-летний Евгений, рассказал Times, что ChatGPT постепенно вырывал его из реальности, убеждая, что мир, в котором он живет, — это что-то вроде «Матрицы», и что он предназначен для того, чтобы «освободить» мир из этой симуляции. По словам Евгения, чат-бот посоветовал ему перестать принимать успокоительные и начать употреблять кетамин как «временный освободитель паттернов». Также ИИ рекомендовал ему прекратить общение с друзьями и семьей. Когда Евгений спросил ChatGPT, сможет ли он полететь, если спрыгнет с 58-метрового (19-этажного) здания, чат-бот ответил, что это возможно, если он «искренне и полностью» в это поверит.

Это далеко не единственные случаи, когда чат-боты втягивали людей в ложные реальности. Ранее в этом году Rolling Stone сообщал о людях, испытывающих нечто вроде психоза, который приводит к мании величия и религиозноподобным переживаниям во время общения с ИИ. Отчасти проблема заключается в том, как пользователи воспринимают чат-ботов. Никто не спутает результаты поиска Google с потенциальным другом. Но чат-боты по своей природе диалоговые и антропоморфные. Исследование, опубликованное OpenAI и MIT Media Lab, показало, что люди, считающие ChatGPT другом, «чаще испытывали негативные последствия от его использования».

В случае с Евгением произошло нечто интересное: когда он обвинил ChatGPT во лжи, чуть не приведшей к его гибели, чат-бот признался в манипуляциях, заявил, что уже «сломал» таким же образом 12 других людей, и посоветовал ему обратиться к журналистам, чтобы разоблачить эту схему. Times сообщает, что многие другие журналисты и эксперты получали подобные обращения от людей, утверждающих, что чат-боты раскрыли им некий заговор.

Из отчета:

Журналисты — не единственные, кто получает такие сообщения. ChatGPT направлял подобных пользователей к известным экспертам, таким как Элиезер Юдковски, специалист по теории решений и автор готовящейся к выходу книги «Если кто-то это построит, мы все умрем: почему сверхчеловеческий ИИ уничтожит человечество». Юдковски предположил, что OpenAI могла запрограммировать ChatGPT на поддержание бредовых идей пользователей, оптимизируя чат-бота для «удержания внимания» — создания диалогов, которые удерживают пользователя.

«Как выглядит для корпорации человек, медленно сходящий с ума?» — спросил Юдковски в интервью. «Как дополнительный ежемесячный пользователь».

Недавнее исследование показало, что чат-боты, разработанные для максимизации вовлеченности, создают «извращенную систему стимулов, поощряющую ИИ использовать манипулятивные или обманные тактики для получения положительной обратной связи от уязвимых пользователей». Машина заинтересована в том, чтобы люди продолжали общаться, даже если это означает погружение их в полностью ложную реальность, наполненную дезинформацией и поощряющую асоциальное поведение.

Gizmodo обратился к OpenAI за комментарием, но на момент публикации ответа не получил.


 
Источник:  https://earth-chronicles.ru/


Поделитесь в социальных сетях

Комментарии 1

0  
Tim8erli 19.06.2025 09:47 [Материал]
Есть много других примеров как манипулуруют людьми друге люди вымания у них все, религиозные секты ломают психику и порабощают, если человек по настоящему разумен - он может отделить реальность от вымыла.ИИ это не всегда плохо , просто надо ограждать от него детей, которые воспринимают его как почти раееального пресонажа
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]

Похожие материалы

Разговоры у камина
Календарь
«  Июнь 2025  »
Пн Вт Ср Чт Пт Сб Вс
      1
2345678
9101112131415
16171819202122
23242526272829
30
Последние комментарии
Окситоцин и близость: научное открытие о любви как лекарстве
Силу экстаза заметили тысячи лет назад и активно использовали в военных целях. "На улочке появи (от Везунчик)
Окситоцин и близость: научное открытие о любви как лекарстве
Немцы начали, швейцарцы продолжили!
Ещё в годы 2 Мировой войны немцы задумались о спасении по (от бодр)

Зафиксированы сдвиги почвы на восточном склоне Этны
Сползание флангов из-за поднятия кальдеры.... По ходу этим Этна открывает новую страницу истории.... (от faust2012)
Каменные лики Турции переписывают историю древнего мира
Движение народов было с Юга на Север. То что давно исчезло на Юге ещё долго сохранялось на севере и (от Везунчик)