Учёные обманули искусственный интеллект с помощью другого ИИ
Учёные из Массачусетского технологического института (MIT) обманули искусственный интеллект с помощью другого ИИ. Специально обученная система не смогла идентифицировать текст по-прежнему после замены некоторых слов на синонимы.
Исследователи заметили, что незначительное изменение фразы, которое человек мог бы считать без искажения смысла, искусственный интеллект «понять» не способен. Тогда они решили создать алгоритм, который подбирал бы синонимы для изменения фраз и обманул бы таким образом ИИ, распознающий текст.
В материале приводится пример такого обмана. Так, фраза «The characters, cast in impossibly contrived situations, are totally estranged from reality.» («Персонажи, сыгранные в невероятно надуманных ситуациях, полностью оторваны от реальности»). Она определяется ИИ как негативный отзыв к фильму. Однако если заменить в ней некоторые слова контекстуальными синонимами — «The characters, cast in impossibly engineered circumstances, are fully estranged from reality» («Персонажи, сыгранные в невероятно спланированных обстоятельствах, полностью оторваны от реальности») — то ИИ сочтёт отзыв положительным.