Разрыв в теле: почему у искусственного интеллекта нет того, что делает человека человеком
Исследователи из Калифорнийского университета в Лос-Анджелесе ввели новое понятие, которое может стать ключевым в дискуссии о природе искусственного интеллекта. Они называют его «разрывом в теле».
По мере того как системы искусственного интеллекта все увереннее имитируют человеческое мышление и речь, возникает опасная иллюзия: машина понимает то, о чем говорит. Но наука утверждает обратное. Современный искусственный интеллект может описать любой человеческий опыт — голод, страх, счастье или усталость. Но он никогда не переживал ничего подобного.
Два измерения телесности
Концепция, предложенная группой под руководством Акилы Кадамби, постдокторанта кафедры психиатрии и биоповеденческих наук медицинской школы Дэвида Геффена при Калифорнийском университете в Лос-Анджелесе, базируется на двух ключевых понятиях.
Внешнее воплощение — это способность системы воспринимать мир и действовать в нем. Внутреннее воплощение — непрерывное осознание собственных внутренних состояний: усталости, неуверенности, стресса, голода. У человека эти два канала работают в постоянной связке, создавая петлю обратной связи, которая формирует внимание, память и принятие решений. У искусственного интеллекта нет ни того, ни другого.
«Отсутствие тела или аналогичной внутренней физиологии означает, что системы искусственного интеллекта могут лишь приближаться к пониманию, имитировать его или даже убедительно воспроизводить его выражение, — поясняет Кадамби. — Но имитация — это не то же самое, что опыт».
Опасность имитации
Когда человек передает солонку через стол, он опирается на целую жизнь сенсомоторного опыта: как предмет ощущается в руке, как оценить расстояние, какой социальный контекст стоит за этим действием и какое намерение он вкладывает в жест. Человеческое поведение глубоко контекстуально. Мозг непрерывно интегрирует внешние сигналы с внутренними телесными состояниями.
У искусственного интеллекта такого слоя нет.
«Если вы испытываете неуверенность, если вы истощены, если что-то угрожает вашему выживанию, ваше тело регистрирует это, — говорит Кадамби. — У систем искусственного интеллекта сейчас нет ничего подобного. Они могут звучать как существа, обладающие опытом, должны они это делать или нет. И это реальная проблема по многим причинам, особенно когда такие системы развертываются в ответственных сферах».
Хрупкое восприятие
Исследователи провели эксперименты с точечными светодисплеями — рядами светящихся точек, которые человек без труда опознает как движущуюся фигуру другого человека. Несколько современных систем искусственного интеллекта не справились с этой задачей. Они интерпретировали те же визуальные паттерны как несвязанные геометрические фигуры или даже астрономические явления. Когда условия эксперимента изменили, качество распознавания упало еще сильнее.
Это указывает на хрупкий и нереалистичный режим восприятия, который резко контрастирует со стабильностью, которую обеспечивает воплощенный человеческий опыт.
Отсутствие внутреннего регулятора
«У современных систем искусственного интеллекта нет эквивалентного механизма. Они обрабатывают входные данные и генерируют выходные, не имея какого-либо устойчивого внутреннего состояния, которое регулировало бы их поведение во времени, — объясняет доктор Марко Якобони, профессор кафедры психиатрии и биоповеденческих наук, один из старших авторов работы. — Это не просто ограничение производительности. Это ограничение безопасности».
Без внутренних издержек или ограничений у системы искусственного интеллекта нет внутренней причины избегать самоуверенных ошибок, сопротивляться манипуляциям или вести себя последовательно. Она может с абсолютной уверенностью утверждать нечто, что не соответствует действительности, и не будет испытывать ни сомнения, ни сожаления.
Предлагаемый выход: двойное воплощение
Авторы статьи предлагают так называемую «структуру двойного воплощения». Идея заключается в том, чтобы позволить системам искусственного интеллекта более непосредственно соединяться с внешним миром, одновременно встраивая в них внутренние процессы «самопроверки» — нечто отдаленно напоминающее внутренний голос человека, который помогает регулировать поведение.
Исследователи также призывают к разработке новых оценочных стандартов. Вместо того чтобы проверять, может ли искусственный интеллект идентифицировать объекты или выполнять задачи, будущие испытания должны выяснять, способна ли система сохранять стабильность в условиях неопределенности и демонстрировать саморегуляцию.
Вопрос без ответа
Человеческое мышление формируется связью, а не изоляцией. Тело служит врожденной системой безопасности — регулятором опыта, который постоянно подсказывает мозгу: здесь опасно, здесь я уверен, здесь я на пределе. Что происходит, когда мы передаем принятие решений системам, у которых нет ни тела, ни усталости, ни страха, ни сомнения?
Ответа на этот вопрос пока никто не дал.

