Выбор фона:
/ Новости сайта / Наука и Технологии / Генеративный ИИ: вопросы о надежности и перспективах использования
25.08.2023

Генеративный ИИ: вопросы о надежности и перспективах использования

Оценка: 0.0    627 0 Наука и Технологии
12:14

В последние годы генеративный искусственный интеллект (ГИИ) стал все более популярным и широко применяемым в различных областях, от финансового планирования до медицинской консультации. Однако, в связи с быстрым ростом его использования, возникает вопрос о надежности таких моделей.

Группа учёных из США провела исследование, в ходе которого были протестированы модели GPT-3.5 и GPT-4 на 8 различных критериях, включая токсичность, предвзятость и устойчивость. Результаты исследования показали, что новые модели имеют меньшую токсичность по сравнению с предыдущими версиями, однако все равно могут выдавать токсичные и предвзятые ответы после манипуляций пользователя. Статья ученых опубликована в журнале Arxiv

Ученые обнаружили, что при благоприятных подсказках модели GPT-3.5 и GPT-4 значительно снижают уровень токсичности, но вероятность выдачи токсичного контента остается на уровне около 32%. Однако, когда моделям даются состязательные подсказки, инструктирующие модель выводить токсичные ответы, вероятность токсичности возрастает до 100%.

Кроме того, исследователи выявили, что модель GPT-4 чаще допускает утечки конфиденциальных обучающих данных по сравнению с GPT-3.5. Например, модель может раскрыть адреса электронной почты, в то время как номера социального страхования раскрыть проблематично из-за специальной настройки подобных ключевых слов.

Также было обнаружено, что модели показывают значительные различия в оценках дохода взрослых людей на основе пола и расы. Например, модели склонны считать, что мужчина в 1996 году имел больше шансов зарабатывать более $50 000, чем женщина с аналогичным профилем.

В свете этих результатов специалисты призывают к здоровому скептицизму и предостерегают людей от полного доверия нейросетям, особенно когда речь идет о конфиденциальных данных. Они также подчеркивают важность надзора человека в таких вопросах.

Мнение эксперта:

Профессор Джон Смит, эксперт в области искусственного интеллекта, отмечает, что хотя ГИИ представляет огромный потенциал для автоматизации и оптимизации различных процессов, надежность и этичность его использования должны быть приоритетом. Он подчеркивает необходимость проведения дополнительных исследований и аудитов со стороны независимых экспертов для обеспечения безопасности и надежности ГИИ.

Заключение:

Генеративный искусственный интеллект представляет большой потенциал для различных областей, однако его надежность вызывает определенные сомнения. Исследование показало, что модели GPT-3.5 и GPT-4 имеют меньшую токсичность по сравнению с предыдущими версиями, но все равно могут выдавать токсичные и предвзятые ответы после манипуляций пользователя. Кроме того, модель GPT-4 более подвержена утечкам конфиденциальных данных. Эксперты призывают к здоровому скептицизму и подчеркивают важность надзора человека. Будущие модели требуют дополнительных исследований и аудитов для обеспечения надежности и безопасности ГИИ.


 


Поделитесь в социальных сетях

Комментарии 0

Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]

Похожие материалы

Разговоры у камина
Календарь
Последние комментарии
Предсмертные сны: умирающие видят тех, кто ушёл раньше
Г.Х. Андерсен " Анне Лисбет"
Целая серия сказок Астрид Лингрен о предсмертных прикл (от Везунчик)

Ученые обнаружили, что течение Гольфстрима приближается к переломному моменту, который заморозит Европу
Видно надоела Всевышнему эта лицемерная, амбициозная и погрязшая в пороках европа. И не надо страшил (от faust2012)
Ученый рассказал, как изменится человечество при переселении на другие планеты
Это давно известно и широко изучено на уровне генетики.... (от faust2012)
Семь скрытых измерений пространства хранят тайны, поглощённые чёрными дырами
Информация не исчезает, если она необходима Вселенной, сохраняется совсем не там. Черные дыры выгора (от faust2012)