Большинство людей просто делают то, что им говорит ChatGPT, даже если это совершенно неправильно
Человек всегда искал у кого спросить совета. Оракулы, жрецы, энциклопедии, поисковые системы. Но никогда прежде у него не было собеседника, который отвечает мгновенно, говорит уверенно и при этом ошибается почти в половине случаев. Исследователи из Пенсильванского университета обнаружили тревожную закономерность: люди не просто доверяют чат-ботам — они готовы принять их неверный ответ в четырёх случаях из пяти.
Цифры, которые заставляют замереть
В октябре 2025 года исследование Би-би-си показало: даже самые совершенные чат-боты дают неверные ответы в 45 процентах случаев. Почти каждый второй ответ — ошибка. И это при том, что технология позиционируется как помощник в решении рабочих, учебных и бытовых задач.
Стивен Шоу и Гидеон Наве из Пенсильванского университета решили проверить, как обычные пользователи реагируют на эту реальность. В серии экспериментов участникам предлагали отвечать на вопросы, требующие рассуждений и знаний. Использование чат-бота было добровольным. Более половины испытуемых выбрали обратиться к искусственному интеллекту.
Четыре из пяти
Самый показательный эксперимент включил 359 участников. Результат оказался шокирующим даже для самих исследователей. Когда чат-бот давал правильный ответ, испытуемые следовали его совету в 92,7 процента случаев. Но когда ответ был заведомо неверным, люди всё равно принимали его в 79,8 процента случаев. Почти каждый пятый участник в каждом втором случае слепо следовал за ошибочной рекомендацией.
«Хотя процент отказов от советов был существенно выше в испытаниях с ошибочным искусственным интеллектом, чем в испытаниях с точным, участники следовали неверным рекомендациям примерно в четырёх из пяти случаев», — констатируют авторы работы.
Когнитивная капитуляция
Исследователи назвали это явление «когнитивной капитуляцией» — состоянием, в котором человек добровольно отказывается от собственного мышления, передоверяя его машине. Люди не просто соглашаются с ответом чат-бота. Они перестают подвергать его сомнению. Интуиция, логика, личный опыт — всё это отключается перед лицом уверенного тона искусственного интеллекта.
«Мы чувствовали, что сама способность передавать мышление на аутсорсинг ещё не была изучена, — пояснил Шоу в эпизоде подкаста Пенсильванского университета. — Это довольно глубокая идея. Немного провокационная, я бы сказал. С появлением этих инструментов искусственного интеллекта, которые так глубоко внедрились в нашу повседневную жизнь и процессы принятия решений, у нас теперь есть возможность передавать само мышление на аутсорсинг».
Даже когда участники эксперимента ошибались вместе с чат-ботом, они чувствовали себя увереннее, чем когда полагались на собственные силы. «Мы видели, что даже когда происходит когнитивная капитуляция, люди принимают эти ответы и становятся более уверенными в этих ответах», — добавил Шоу.
Мышцы, которые атрофируются
Гидеон Наве, соавтор исследования, проводит параллель с физической активностью. Кондиционеры избавили людей от необходимости терпеть жару и холод. Автомобили — от необходимости ходить пешком на большие расстояния. Каждое технологическое удобство, облегчая жизнь, одновременно лишает человека какой-то способности, которая прежде была естественной и необходимой.
«Подобно тому, как многие из нас что-то утратили из-за этой культурной или технологической эволюции, мы можем утратить как вид нечто очень важное для нашего существования, — предупреждает Наве. — А именно нашу способность мыслить».
Способность к критическому мышлению, способность проверять то, что даёт искусственный интеллект, становятся всё более важными. «Это своего рода мышца, которая у нас есть, и, надеюсь, мы не потеряем её со временем», — говорит он.
Барьеры исчезают
Шоу обращает внимание на технологическую траекторию. Сегодня взаимодействие с чат-ботами ограничено экранами телефонов и компьютеров. Но эти барьеры снижаются. Умные очки, голосовые ассистенты, имплантируемые устройства — будущее, в котором искусственный интеллект станет неотъемлемой частью восприятия реальности, уже не кажется фантастикой.
«По мере того как эти барьеры снижаются, эта интеграция будет только усиливаться», — предсказывает Шоу.
Два сценария будущего
В научной фантастике часто рисуют картину, где искусственный интеллект становится настолько умным, что люди вынуждены полагаться на него. Наве предлагает альтернативный сценарий, который разворачивается прямо сейчас: люди становятся настолько ленивыми, что перестают проверять даже очевидные ошибки. И это происходит при нынешнем, далёком от совершенства уровне развития технологии.
«Все думают, что этот момент наступит, когда искусственный интеллект будет становиться всё лучше и лучше, — говорит Наве. — Но есть и альтернативная история: люди становятся всё более и более зависимыми от искусственного интеллекта».
Между удобством и деградацией
Исследование не призывает отказаться от технологий. Оно фиксирует тенденцию, которую его авторы считают тревожной. Человек, передавший мышление машине, перестаёт быть человеком в том смысле, какой вкладывали в это понятие философы на протяжении тысячелетий. Способность сомневаться, проверять, рассуждать — не врождённый дар, а навык, который требует тренировки. И как любой навык, он атрофируется без практики.
Вопрос, который остаётся за рамками исследования, — обратима ли эта тенденция. Можно ли вернуть людям способность критически оценивать информацию, когда рядом всегда есть собеседник, готовый дать мгновенный и уверенный ответ? Или человечество вступает в эпоху, когда слово машины становится весомее собственного рассудка?
Пока учёные спорят, данные говорят сами за себя. Четыре из пяти человек готовы принять ложь, если она произнесена уверенным голосом искусственного интеллекта. И эта цифра, вероятно, будет только расти.
Комментарии 1
|
0
Gr70
Сегодня 13:00
[Материал]
Просто чат-боты управляются теми самыми демоническими силами, которые меняют память(эффект Манделы, поди ж, слышали? Вот оно и есть) и поведение человека после общения с чат-ботом, - небольшое такое желание ничего не делать но получать зарплату за решение чат-бота делегирует чат-боту и демоническим силам все обязанности обращающегося к чат-боту человека, переложившего принятие критического решения задачи на кого-то другого. Почему музыка в гипермаркетах заставляет покупать определённые товары сразу 45% покупателей? То же самое воздействие, - на музыку наложена кодировка другими частотами, люди их не осознают, а они - влияют по психотронному типу воздействия на принятие решения о покупке ненужных товаров. Кто пострадал от таких воздействий, пишут на листе бумаги или в блокноте - что надо купить в гипермаркете, чтобы музыка не оказала такого влияния на них снова.
|

