Выбор фона:
/ Новости сайта / Наука и Технологии / Искусственный интеллект страдает от депрессии и психических расстройств
16.08.2022

Искусственный интеллект страдает от депрессии и психических расстройств

Оценка: 0.0    650 0 Наука и Технологии
14:23

Новое исследование, опубликованное Китайской академией наук (CAS), выявило серьезные психические расстройства у многих искусственных интеллектов, разрабатываемых крупнейшими технологическими гигантами.

Оказалось, что у большинства из них наблюдаются симптомы депрессии и алкоголизма. Исследование проводилось двумя китайскими корпорациями Tencent и WeChat. Ученые протестировали ИИ на признаки депрессии, алкогольной зависимости и эмпатии.

"Психическое здоровье" ботов привлекло внимание исследователей после того, как медицинский чатбот посоветовал пациенту совершить самоубийство в 2020 году.

Исследователи спрашивали чатботов об их самооценке и способности расслабляться, сопереживают ли они чужим несчастьям и как часто прибегают к алкоголю.

Как выяснилось, у ВСЕХ чатботов, прошедших оценку, были "серьезные психические проблемы". Конечно, никто не утверждает, что боты начали злоупотреблять алкоголем или психоактивными веществами, но даже без них психика ИИ находится в плачевном состоянии.

Ученые говорят, что распространение пессимистичных алгоритмов в обществе может создать проблемы для их собеседников. Согласно полученным данным, два из них находились в наихудшем состоянии.

Команда задалась целью найти причину плохого самочувствия ботов и пришла к выводу, что это связано с учебным материалом, выбранным для их обучения. Все четыре бота обучались на популярном сайте Reddit, известном своими негативными и часто непристойными комментариями, поэтому неудивительно, что они также отвечали на вопросы о психическом здоровье.

Здесь стоит вспомнить одну из самых интересных историй, связанных с неудачами чат-ботов. Бот компании Microsoft под названием Tay учился в Twitter. Машина могла разговаривать с другими людьми, рассказывать шутки, комментировать чьи-то фотографии, отвечать на вопросы и даже имитировать чужую речь.

Алгоритм был разработан в рамках исследований в области коммуникации. Microsoft позволила ИИ вступать в самостоятельные дискуссии в Twitter, и вскоре стало ясно, что это было большой ошибкой.

В течение 24 часов программа научилась писать крайне неуместные, вульгарные, политически некорректные комментарии. ИИ ставил под сомнение Холокост, становился расистом, антисемитом, ненавидел феминисток и поддерживал массовые убийства Адольфа Гитлера. За несколько часов Тей превратился в злобного хейтера.

В ответ Microsoft заблокировала чатбота и удалила большинство комментариев. Конечно, это произошло благодаря людям - бот многому научился, общаясь с ними.

Такие истории, как фиаско Тэй и депрессивные алгоритмы, изученные CAS, показывают серьезную проблему в развитии технологий ИИ.

Похоже, что человеческие инстинкты и поведение - это токсин, который превращает даже самые простые алгоритмы в отражение наших худших черт. Как бы то ни было, боты, проанализированные китайцами, - это не настоящий ИИ, а всего лишь попытка воспроизвести модели человеческого общения.

Но как мы можем быть уверены, что настоящий ИИ в будущем не пойдет по тому же сценарию?


 
Источник:  https://earth-chronicles.ru/

Поделитесь в социальных сетях

Комментарии 0

Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]

Похожие материалы

Разговоры у камина
Календарь
Последние комментарии
Тысячи "человекоподобных роботов" Tesla начнут работать на заводах компании
"Вам кран починить или куни сделать? Вы уж определитесь ...мэм.. что в первую очередь"
renmilk11)

Тысячи "человекоподобных роботов" Tesla начнут работать на заводах компании
с точки зрения экономики и практичности лучше создать миньона, расходов на создание гораздо меньше, (от deus_ex)
Тысячи "человекоподобных роботов" Tesla начнут работать на заводах компании
C точки зрения эргономики и эффективности было бы логичнее создать для работы на заводе робота в фор (от maikl2m)