Выбор фона:
/ Новости сайта / Наука и Технологии / Большинство людей просто делают то, что им говорит ChatGPT, даже если это совершенно неправильно
Сегодня

Большинство людей просто делают то, что им говорит ChatGPT, даже если это совершенно неправильно

Оценка: 0.0    85 1 Наука и Технологии
10:54

Человек всегда искал у кого спросить совета. Оракулы, жрецы, энциклопедии, поисковые системы. Но никогда прежде у него не было собеседника, который отвечает мгновенно, говорит уверенно и при этом ошибается почти в половине случаев. Исследователи из Пенсильванского университета обнаружили тревожную закономерность: люди не просто доверяют чат-ботам — они готовы принять их неверный ответ в четырёх случаях из пяти.

Цифры, которые заставляют замереть

В октябре 2025 года исследование Би-би-си показало: даже самые совершенные чат-боты дают неверные ответы в 45 процентах случаев. Почти каждый второй ответ — ошибка. И это при том, что технология позиционируется как помощник в решении рабочих, учебных и бытовых задач.

Стивен Шоу и Гидеон Наве из Пенсильванского университета решили проверить, как обычные пользователи реагируют на эту реальность. В серии экспериментов участникам предлагали отвечать на вопросы, требующие рассуждений и знаний. Использование чат-бота было добровольным. Более половины испытуемых выбрали обратиться к искусственному интеллекту.

Четыре из пяти

Самый показательный эксперимент включил 359 участников. Результат оказался шокирующим даже для самих исследователей. Когда чат-бот давал правильный ответ, испытуемые следовали его совету в 92,7 процента случаев. Но когда ответ был заведомо неверным, люди всё равно принимали его в 79,8 процента случаев. Почти каждый пятый участник в каждом втором случае слепо следовал за ошибочной рекомендацией.

«Хотя процент отказов от советов был существенно выше в испытаниях с ошибочным искусственным интеллектом, чем в испытаниях с точным, участники следовали неверным рекомендациям примерно в четырёх из пяти случаев», — констатируют авторы работы.

Когнитивная капитуляция

Исследователи назвали это явление «когнитивной капитуляцией» — состоянием, в котором человек добровольно отказывается от собственного мышления, передоверяя его машине. Люди не просто соглашаются с ответом чат-бота. Они перестают подвергать его сомнению. Интуиция, логика, личный опыт — всё это отключается перед лицом уверенного тона искусственного интеллекта.

«Мы чувствовали, что сама способность передавать мышление на аутсорсинг ещё не была изучена, — пояснил Шоу в эпизоде подкаста Пенсильванского университета. — Это довольно глубокая идея. Немного провокационная, я бы сказал. С появлением этих инструментов искусственного интеллекта, которые так глубоко внедрились в нашу повседневную жизнь и процессы принятия решений, у нас теперь есть возможность передавать само мышление на аутсорсинг».

Даже когда участники эксперимента ошибались вместе с чат-ботом, они чувствовали себя увереннее, чем когда полагались на собственные силы. «Мы видели, что даже когда происходит когнитивная капитуляция, люди принимают эти ответы и становятся более уверенными в этих ответах», — добавил Шоу.

Мышцы, которые атрофируются

Гидеон Наве, соавтор исследования, проводит параллель с физической активностью. Кондиционеры избавили людей от необходимости терпеть жару и холод. Автомобили — от необходимости ходить пешком на большие расстояния. Каждое технологическое удобство, облегчая жизнь, одновременно лишает человека какой-то способности, которая прежде была естественной и необходимой.

«Подобно тому, как многие из нас что-то утратили из-за этой культурной или технологической эволюции, мы можем утратить как вид нечто очень важное для нашего существования, — предупреждает Наве. — А именно нашу способность мыслить».

Способность к критическому мышлению, способность проверять то, что даёт искусственный интеллект, становятся всё более важными. «Это своего рода мышца, которая у нас есть, и, надеюсь, мы не потеряем её со временем», — говорит он.

Барьеры исчезают

Шоу обращает внимание на технологическую траекторию. Сегодня взаимодействие с чат-ботами ограничено экранами телефонов и компьютеров. Но эти барьеры снижаются. Умные очки, голосовые ассистенты, имплантируемые устройства — будущее, в котором искусственный интеллект станет неотъемлемой частью восприятия реальности, уже не кажется фантастикой.

«По мере того как эти барьеры снижаются, эта интеграция будет только усиливаться», — предсказывает Шоу.

Два сценария будущего

В научной фантастике часто рисуют картину, где искусственный интеллект становится настолько умным, что люди вынуждены полагаться на него. Наве предлагает альтернативный сценарий, который разворачивается прямо сейчас: люди становятся настолько ленивыми, что перестают проверять даже очевидные ошибки. И это происходит при нынешнем, далёком от совершенства уровне развития технологии.

«Все думают, что этот момент наступит, когда искусственный интеллект будет становиться всё лучше и лучше, — говорит Наве. — Но есть и альтернативная история: люди становятся всё более и более зависимыми от искусственного интеллекта».

Между удобством и деградацией

Исследование не призывает отказаться от технологий. Оно фиксирует тенденцию, которую его авторы считают тревожной. Человек, передавший мышление машине, перестаёт быть человеком в том смысле, какой вкладывали в это понятие философы на протяжении тысячелетий. Способность сомневаться, проверять, рассуждать — не врождённый дар, а навык, который требует тренировки. И как любой навык, он атрофируется без практики.

Вопрос, который остаётся за рамками исследования, — обратима ли эта тенденция. Можно ли вернуть людям способность критически оценивать информацию, когда рядом всегда есть собеседник, готовый дать мгновенный и уверенный ответ? Или человечество вступает в эпоху, когда слово машины становится весомее собственного рассудка?

Пока учёные спорят, данные говорят сами за себя. Четыре из пяти человек готовы принять ложь, если она произнесена уверенным голосом искусственного интеллекта. И эта цифра, вероятно, будет только расти.


 
Источник:  https://earth-chronicles.ru/


Поделитесь в социальных сетях

Комментарии 1

0  
Gr70 Сегодня 13:00 [Материал]
Просто чат-боты управляются теми самыми демоническими силами, которые меняют память(эффект Манделы, поди ж, слышали? Вот оно и есть) и поведение человека после общения с чат-ботом, - небольшое такое желание ничего не делать но получать зарплату за решение чат-бота делегирует чат-боту и демоническим силам все обязанности обращающегося к чат-боту человека, переложившего принятие критического решения задачи на кого-то другого. Почему музыка в гипермаркетах заставляет покупать определённые товары сразу 45% покупателей? То же самое воздействие, - на музыку наложена кодировка другими частотами, люди их не осознают, а они - влияют по психотронному типу воздействия на принятие решения о покупке ненужных товаров. Кто пострадал от таких воздействий, пишут на листе бумаги или в блокноте - что надо купить в гипермаркете, чтобы музыка не оказала такого влияния на них снова.
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]

Похожие материалы

Разговоры у камина
Календарь
«  Март 2026  »
Пн Вт Ср Чт Пт Сб Вс
      1
2345678
9101112131415
16171819202122
23242526272829
3031
Последние комментарии
Багровое небо Австралии: тропический циклон окрасил землю в цвет апокалипсиса
Короче - свет Венеры отраженный от болотного газа  Sarbos)
Космический металл из древности: находка в Китае переворачивает представления о бронзовом веке
Железо плавится при 1538 °С.  Температура плавления чистого никеля примерно 1455 °С. Зачем там 4000  (от alsm74)
Пробуждение Кальдеры: под японским супервулканом нарастает магма
Учитывая перемещение Земли во внутренний Энергетический тор СС, Земля принимает возрастающие вирации (от бодр)
Семь способов, которыми разум выходит за пределы мозга
скопаэстезия возможна через 900 лет только, а то, что ощущали люди - обычные демонические воз (от Gr70)