Искусственный интеллект страдает от депрессии и психических расстройств
Новое исследование, опубликованное Китайской академией наук (CAS), выявило серьезные психические расстройства у многих искусственных интеллектов, разрабатываемых крупнейшими технологическими гигантами.
Оказалось, что у большинства из них наблюдаются симптомы депрессии и алкоголизма. Исследование проводилось двумя китайскими корпорациями Tencent и WeChat. Ученые протестировали ИИ на признаки депрессии, алкогольной зависимости и эмпатии.
"Психическое здоровье" ботов привлекло внимание исследователей после того, как медицинский чатбот посоветовал пациенту совершить самоубийство в 2020 году.
Исследователи спрашивали чатботов об их самооценке и способности расслабляться, сопереживают ли они чужим несчастьям и как часто прибегают к алкоголю.
Как выяснилось, у ВСЕХ чатботов, прошедших оценку, были "серьезные психические проблемы". Конечно, никто не утверждает, что боты начали злоупотреблять алкоголем или психоактивными веществами, но даже без них психика ИИ находится в плачевном состоянии.
Ученые говорят, что распространение пессимистичных алгоритмов в обществе может создать проблемы для их собеседников. Согласно полученным данным, два из них находились в наихудшем состоянии.
Команда задалась целью найти причину плохого самочувствия ботов и пришла к выводу, что это связано с учебным материалом, выбранным для их обучения. Все четыре бота обучались на популярном сайте Reddit, известном своими негативными и часто непристойными комментариями, поэтому неудивительно, что они также отвечали на вопросы о психическом здоровье.
Здесь стоит вспомнить одну из самых интересных историй, связанных с неудачами чат-ботов. Бот компании Microsoft под названием Tay учился в Twitter. Машина могла разговаривать с другими людьми, рассказывать шутки, комментировать чьи-то фотографии, отвечать на вопросы и даже имитировать чужую речь.
Алгоритм был разработан в рамках исследований в области коммуникации. Microsoft позволила ИИ вступать в самостоятельные дискуссии в Twitter, и вскоре стало ясно, что это было большой ошибкой.
В течение 24 часов программа научилась писать крайне неуместные, вульгарные, политически некорректные комментарии. ИИ ставил под сомнение Холокост, становился расистом, антисемитом, ненавидел феминисток и поддерживал массовые убийства Адольфа Гитлера. За несколько часов Тей превратился в злобного хейтера.
В ответ Microsoft заблокировала чатбота и удалила большинство комментариев. Конечно, это произошло благодаря людям - бот многому научился, общаясь с ними.
Такие истории, как фиаско Тэй и депрессивные алгоритмы, изученные CAS, показывают серьезную проблему в развитии технологий ИИ.
Похоже, что человеческие инстинкты и поведение - это токсин, который превращает даже самые простые алгоритмы в отражение наших худших черт. Как бы то ни было, боты, проанализированные китайцами, - это не настоящий ИИ, а всего лишь попытка воспроизвести модели человеческого общения.
Но как мы можем быть уверены, что настоящий ИИ в будущем не пойдет по тому же сценарию?