Новое исследование предупреждает: ИИ нуждается в более глубоком понимании и управлении
Искусственный интеллект (ИИ) и алгоритмы, которые раньше рассматривались как инструменты для борьбы с онлайн-угрозами, теперь сами признаются потенциальными угрозами. По мнению профессора Джо Бертона из Ланкастерского университета, ИИ и алгоритмы способны усугублять радикализацию, усиливать поляризацию, распространять расизм и политическую нестабильность, представляя собой значительный риск для национальной безопасности.
В своей статье, недавно опубликованной в журнале Elsevier "Технологии в обществе", профессор Бертон исследует, как ИИ подвергался секьюритизации на протяжении всей истории. Он утверждает, что представление об ИИ как об экзистенциальной угрозе повлияло на его разработку и использование, что привело к пагубным последствиям. Хотя ИИ часто представляют как инструмент противодействия насильственному экстремизму, профессор Бертон обращает внимание на другую сторону дискуссии.
Популярный киносериал "Терминатор" сыграл значительную роль в формировании общественного восприятия ИИ. Изображение сложного и злобного ИИ, совершающего холокост, породило страх и недоверие к машинному сознанию. Этот страх в сочетании с опасениями по поводу биологических, ядерных и генетических угроз побудил правительства и агентства национальной безопасности повлиять на развитие ИИ, чтобы снизить риски.
Профессор Бертон подчеркивает роль ИИ в военных действиях и кибербезопасности. Сложные беспилотники, способные к полной автономии, сегодня используются в таких конфликтах, как война на Украине. Эти беспилотники могут самостоятельно определять и распознавать цели, что вызывает этические проблемы, связанные с принятием решений о жизни и смерти без вмешательства человека.
В сфере кибербезопасности ИИ широко используется в (дезинформационной) и психологической войне в Интернете. Действия путинского правительства во время выборов в США в 2016 году и последующий скандал с Cambridge Analytica продемонстрировали потенциал ИИ в сочетании с большими данными для манипулирования группами идентичности, поощрения радикальных убеждений и поляризации общества.
Несмотря на то, что ИИ способен произвести революцию в различных отраслях, его неправильное использование создает серьезные угрозы для национальной безопасности. Секьюритизация ИИ в сочетании с его влиянием на ведение войн и кибербезопасность подчеркивает настоятельную необходимость ответственного развития и регулирования. Как следует из исследования профессора Бертона, понимание рисков, связанных с ИИ, имеет решающее значение для обеспечения использования его положительного потенциала и смягчения его вредных последствий.