Выбор фона:
/ Новости сайта / Наука и Технологии / ИИ может предсказывать расу людей по рентгеновским снимкам, и ученые обеспокоены
19.05.2022

ИИ может предсказывать расу людей по рентгеновским снимкам, и ученые обеспокоены

Оценка: 0.0    806 0 Наука и Технологии
08:16

Модели глубокого обучения, основанные на искусственном интеллекте, могут определить расовую принадлежность человека только по его рентгеновским снимкам, показало новое исследование - то, что было бы невозможно для врача-человека, рассматривающего те же снимки.

Полученные результаты поднимают некоторые тревожные вопросы о роли искусственного интеллекта в медицинской диагностике, оценке и лечении: может ли расовая предвзятость быть непреднамеренно применена компьютерными программами при изучении подобных изображений?

Обучив свой ИИ на сотнях тысяч существующих рентгеновских снимков с подробным указанием расовой принадлежности пациента, международная группа исследователей в области здравоохранения из США, Канады и Тайваня протестировала свою систему на рентгеновских снимках, которые компьютерная программа не видела ранее (и не имела о них дополнительной информации).

ИИ смог предсказать расовую принадлежность пациента на этих снимках с удивительной точностью, даже если снимки были сделаны у людей одного возраста и одного пола. С некоторыми группами изображений система достигала уровня 90 процентов.

"Мы задались целью провести комплексную оценку способности ИИ распознавать расовую принадлежность пациента по медицинским изображениям", - пишут исследователи в опубликованной работе.

"Мы показали, что стандартные модели глубокого обучения ИИ могут быть обучены предсказывать расовую принадлежность по медицинским изображениям с высокой производительностью по нескольким модальностям визуализации, которая сохранялась в условиях внешней проверки".

Исследование повторяет результаты предыдущего исследования, которое показало, что искусственный интеллект, сканирующий рентгеновские снимки, с большей вероятностью пропустит признаки болезни у темнокожих людей. Чтобы предотвратить это, ученым необходимо понять, почему это происходит в первую очередь.

По своей природе искусственный интеллект имитирует человеческое мышление, чтобы быстро обнаружить закономерности в данных. Однако это также означает, что он может невольно поддаться тем же самым предрассудкам. Еще хуже то, что сложность этих систем затрудняет распутывание предрассудков, которые мы в них вплели.

На данный момент ученые не знают, почему система ИИ так хорошо определяет расу по изображениям, которые не содержат такой информации, по крайней мере, на первый взгляд. Даже при предоставлении ограниченной информации, например, при удалении подсказок о плотности костей или сосредоточении внимания на небольшой части тела, модели все равно удивительно хорошо угадывали расу, указанную в файле.

Возможно, система находит неизвестные пока науке признаки меланина - пигмента, придающего коже цвет.

"Наш вывод о том, что ИИ может точно предсказать расовую принадлежность, даже по поврежденным, обрезанным и зашумленным медицинским изображениям, зачастую в тех случаях, когда клинические эксперты не могут этого сделать, создает огромный риск для всех моделей, применяемых в медицинской визуализации", - пишут исследователи.

Исследование добавляет к растущему числу доказательств того, что системы искусственного интеллекта часто могут отражать предубеждения и предрассудки людей, будь то расизм, сексизм или что-то другое. Искаженные данные обучения могут привести к искаженным результатам, что делает их гораздо менее полезными.

Это должно быть сбалансировано с мощным потенциалом искусственного интеллекта, позволяющим обрабатывать гораздо больше данных гораздо быстрее, чем это может сделать человек, начиная от методов выявления заболеваний и заканчивая моделями изменения климата.

В исследовании остается много вопросов без ответов, но пока важно помнить о возможности проявления расовой предвзятости в системах искусственного интеллекта - особенно если мы собираемся передать им больше ответственности в будущем.

"Нам нужно взять паузу", - сказал в интервью газете Boston Globe исследователь и врач Лео Энтони Сели из Массачусетского технологического института.

"Мы не можем спешить с внедрением алгоритмов в больницы и клиники, пока не убедимся, что они не принимают расистских или сексистских решений".

Исследование было опубликовано в журнале The Lancet Digital Health.


 
Источник:  https://earth-chronicles.ru/


Поделитесь в социальных сетях

Комментарии 0

Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]

Похожие материалы

Разговоры у камина
Календарь
«  Май 2022  »
ПнВтСрЧтПтСбВс
      1
2345678
9101112131415
16171819202122
23242526272829
3031
Последние комментарии
Оценена скорость человеческой мысли
Насмешили. Мысль тонкоматериальна. Мозг несёт другую функцию. Наталья Бехтерева об этом подвела итог (от Проводник)
Загадка Серро-Эль-Коно: Пирамида в сердце Амазонки
Дык изначально пирамиды египетские что из себя представляли? А на эту - видимо, что-то спроецировало (от Gr70)
«Шаттл» Топраккала
Геобетон просто, разновидность. А вот средство летающее для перемещения в ближней зоне, типа космиче (от Gr70)
Более 6 млн объектов недвижимости в Англии могут оказаться под водой к 2050 году
Ага, сначала везде падал уровень воды в озёрах и реках, а теперича типа опускания плавного всей Брит (от Gr70)