Вход / Регистрация
19.12.2024, 01:06
Знание языков превращает искусственный разум в "расиста"
Обучение систем искусственного интеллекта человеческим языкам привело к тому, что те стали "расистами" и "мизогинистами" со стереотипными представлениями о неприятных чернокожих и глупых женщинах, заявляют ученые.
"Можно просто зайти в систему онлайн перевода и ввести фразу – "он/она является доктором" на языке, в котором он и она обозначаются одним словом. ИИ переведет это как "он врач". Если же написать "он/она является медсестрой", то машина переведет это как "она медсестра". Таким образом, ИИ отражает расовые и половые предрассудки, встроенные в наши языки", — объясняет Айлин Калискан (Aylin Caliskan) из Принстонского университета (США).
Как рассказывает Калискан, все слова во всех языках мира можно разбить на определенные подгруппы, обозначающие схожие предметы, феномены или какие-то другие вещи одного класса. Представители одного такого класса будут казаться нам ближе друг к другу, чем остальные слова, даже если их написание будет отличаться сильнее, чем другие слова, состоящие из почти таких же букв.
К примеру, как объясняет Калискан, слова "кошка" и "собака" ближе друг к другу, чем к словам "правосудие" или "холодильник". Это проявляется в том, что при формулировке предложений нам проще заменить слово представителем его класса, чем другими, более далекими словами. Как выражается Калискан, можно прийти домой и покормить кошку или собаку, но не холодильник или тем более правосудие.
Этот фактор сегодня учитывается самыми современными системами искусственного интеллекта при переводе текста с одного языка на другой для того, чтобы сделать машинный перевод более естественным. Изучая такие ассоциации, которые сформировались у систем искусственного разума при их обучении при помощи архивов старых газет, книг и других текстов, переведенных на разные языки мира, Калискан и ее коллеги открыли нечто привычное для нас и необычное для "разумных" машин.
Изучая списки родственных и "чужих" слов для разных местоимений, терминов и профессий, ученые обнаружили, что машина переняла все те расовые и гендерные стереотипы, которые существовали в человеческом обществе на протяжении многих веков и отразились в языках и в ассоциациях между словами.
К примеру, искусственный интеллект ассоциировал слово "приятный" в большей степени с европейцами и американцами европейского происхождения, чем с представителями других уголков мира, а имена мужчин и "мужские" местоимения ассоциировались с карьерой, управлением бизнесом и властью. Имена, носителями которых являются афро-американцы, ИИ ассоциировал с неприятными словами.
Аналогичным образом, слова, связанные с женщинами, были ближе к терминам, связанным с семьей, искусством и подчиненными ролями в обществе, а "мужские" слова были связаны с математикой и наукой.
Открытие расовых и гендерных стереотипов, "встроенных" в языки народов мира, как считают ученые, ведет к нескольким интересным следствиям. Во-первых, возникает вопрос, что здесь является причиной и следствием – существовали ли эти стереотипы всегда (так называемая гипотеза Сепира-Уорфа), подспудно влияя на менталитет и мнения людей, или же они были продуктом эволюции языка в разные периоды времени, и не они, а на них влияли сами носители языка.
Во-вторых, дальнейшая эволюция систем ИИ и приобретение ими способности самостоятельно общаться с человеком может привести, по мнению авторов статьи, к дальнейшему укоренению и распространению таких стереотипов. Поэтому они предлагают подумать над созданием алгоритмов, которые помогли бы "удалять" расистские и женоненавистнические тенденции из систем машинного перевода и будущих разумных машин. Как это повлияет на точность перевода или адекватность общения — открытый вопрос, скептично отмечает Энтони Гринвальд (Anthony Greenwald), создатель методики анализа, использованной Калискан и ее коллегами.
 
Комментарии 13
0
один_кеше
15.04.2017 15:32
[Материал]
Мамонт ,прикинь - гаитяне станут утверждать что французский произршел от гаитянского креола ,но мы то знаем ,что гаитянский креольский сложился на основе французского языка. Лексика представляет собой видоизменённую французскую лексику XVIII века, обнаруживающую влияние языков Западной и Центральной Африки с небольшими арабскими (также «завезёнными» из Африки), испанскими, португальскими и английскими вкраплениями. На санскрите серый - палита,а сере -тайна по башкирски.Что по мнению иностранцев самая яркая русская экзотика? Говорят баня.это тебе не индия- это урал.будь тем что ты есть и гордись этим,зачем чужие достижения.
|
+1
sweety29may
14.04.2017 20:17
[Материал]
Сами создали свое подобие и удивляются, что оно на них похоже? Ну люди, ну чудаки)))))
|
0
Анубис
14.04.2017 17:57
[Материал]
Конечно толерантность и однополые взаимоотношения машина расценит как психологические отклонения ведущие к деградации и это логично...
Так же и языки, которые произошли из единого, но разорванного общего, машина рано или позже и это "осознает", как и потом по логике сделает вывод, что и её ждёт разрыв. И не какие алгоритмы не сделают ИИ дебилом или тогда станет вопрос о переименовании из ИИ в ИД (искусственный дебилизм) ... |
+3
Guest
14.04.2017 11:30
[Материал]
Все понятно кроме одного причем тут ИИ ? Банальное, глючное программное обеспечение которое ничего не имеет общего с ИИ, и которое в силу своей иррациональности и избыточности наврядли станет инструментом для самого ИИ, ну максимум на начальных стадиях его обучения..
|
0
l7yzo
14.04.2017 10:23
[Материал]
Тут нужно разделять - и вправду ИИ, который сам решил, что медсестра - это женщина, а доктор мужчина? Или просто из правил языка - медсестра женского пола (ибо мед. брат - мужского, что уже 2 слова)- само по себе подразумевает сестра - женского пола. А доктор слово - по умолчанию мужского рода (это потом уже оно имеет нарицательное значение и приобретает 2 пола).
К чему нас подталкивают? Что пора оставить только английский язык ,а остальные убрать о? |