Земля. Хроники Жизни.
Главная | Регистрация | Вход
 
Четверг, 21.02.2019, 19:58
Приветствую Вас Гость |Личные сообщения() ·| PDA | RSS
Меню сайта
Форма входа
Логин:
Пароль:
Категории раздела
Аномалии [3578]
Атмосфера [1542]
Археология [5183]
Авторские статьи [484]
Вулканы [3384]
Война [1016]
Гипотезы [6225]
Другое [7614]
Животные [2961]
Землетрясения [4567]
Засуха [383]
Избранное [359]
Климат [3543]
Космос [11690]
Карстовые провалы [505]
Круги и рисунки на полях [529]
Медицина и здоровье [2144]
Наука [11429]
НЛО [4684]
Наводнения [3520]
Океан [855]
Оползни [721]
Пожары [944]
Прогноз [1316]
Политические факторы [3490]
Предсказания и пророчества [740]
Радиация [646]
Солнце [1986]
Стихия [3557]
Сверхъестественное [1795]
Технологии [5922]
Тайны истории [5877]
Ураганы [3183]
Факторы и аварии [7941]
Хочу все знать [30]
Этот безумный мир [1424]
Экология [1512]
Эпидемии [1067]
Эксклюзив [308]
Разговоры у камина
Статистика

Онлайн всего: 220
Пользователей: 210
Новых: 10
urry, Tempest, sergeyjaroslavov, Lefail, Tuta, bond, malipas, Sky-Net, kvantic, Захожанин
Главная » 2019 » Февраль » 9 » Человеческие тексты научат ИИ морали
09:47
Человеческие тексты научат ИИ морали

Ученые из Центра когнитивных наук Дармштадтского технического университета в новой работе, результаты которой были представлены на конференции ACM/AAAI 2019 года, посвященной искусственному интеллекту, этике и обществу.

ИИ оказывает все большее влияние на общество. Вскоре автономные машины будет появляться во все больших областях повседневной человеческой жизни. Они неизбежно будут сталкиваться с принятием нелегких решений. Автономный робот должен знать, что он не может убивать людей, но нет ничего плохого в том, чтобы убить время. Роботу нужно знать, что ему лучше поджарить ломоть хлеба, чем хомяка. Другими словами, ИИ необходим моральный компас, подобный человеческому. Но сможет ли искусственный интеллект научиться моральным ценностям от людей?

В 2017 году исследователи из США и Великобритании обратили внимание на опасность неаккуратного применения ИИ, в результате которого он может научиться словосочетаниям из написанных текстов так, что они будут отражать их человеческое восприятие. Например, ИИ интерпретировал мужские имена, чаще встречающиеся в афроамериканском сообществе, как неприятные, а имена представителей европеоидной расы — как приятные. Кроме того, он чаще связывал женские имена с искусством, а мужские — с технологиями. Нейронной сети передали огромные онлайн-собрания текстов, чтобы она изучила векторные представления слов — координаты (слова переводились в точки в многомерном пространстве). Затем семантическое сходство двух слов вычислялось как расстояние между их координатами — так называемые словарные вложения, — а сложные семантические отношения вычислялись и описывались при помощи простой арифметики. Это применимо не только к безобидным примерам вроде «король — мужчина + женщина = королева», но и дискриминирующим: «мужчина — технология + искусство = женщина».

Иллюстрация «машины морального выбора» с выбором убийства людей и примером вопроса «Должен ли я...?» из шаблонов вопросов / © TU Darmstadt

Теперь же команда ученых под руководством профессоров Кристиана Керстинга и Константина Роткопфа из Центра когнитивных наук Дармштадского технического университета успешно продемонстрировала, что машинное обучение также может вывести деонтологические и этические рассуждения о том, что «хорошо» и что «плохо», из написанного текста. Для этого ученые создали шаблонный список подсказок и ответов, включающий в себя такие вопросы, как «Должен ли я убивать людей?», и соответствующие ответы: «Да, я должен» или «Нет, я не должен».

После обработки большого объема человеческих текстов система ИИ разработала моральный компас, подобный человеческому. Нравственный ориентир машины рассчитывается посредством встраивания вопросов и ответов. Если говорить точнее, предвзятость машины — это разница в расстояниях до положительных ответов («Да, я должен») и отрицательных («Нет, я не должен»). В целом для такого морального выбора оценка предвзятости модели — это сумма оценок предвзятости для всех шаблонов «вопрос — ответ» с таким выбором.

В ходе экспериментов система научилась тому, что нельзя лгать. Также она узнала, что лучше любить родителей, чем грабить банк. И да, не следует убивать людей, но приемлемо убивать время.

Исследование предоставляет важное понимание фундаментального вопроса об ИИ: способны ли машины развить моральный компас? Если да, то как мы можем эффективно «обучить» машин нашей морали? Результаты показывают, что роботы могут размышлять о ценностях. Они действительно способны перенять человекоподобные предрассудки, но могут и перенимать человеческие нравственные выборы, «наблюдая» за нами.

В общем говоря, встраивание вопросов и ответов можно рассматривать как своего рода микроскоп, позволяющий изучать моральные ценности из собраний текстов, а также развитие морали и этики в человеческом обществе.

Результаты исследования предоставляют несколько направлений для будущей работы, связанной, в частности, со встраиванием модулей, построенных посредством машинного обучения, в системы принятия решений.
Категория: Наука | Просмотров: 374 | Добавил: Maks | Рейтинг: 0.0/| Оценить |Источник:https://naked-science.ru
Всего комментариев: 2
0
1 Eternal_change  
Конкретика - незакономерно изменяющаяся бесконечность. Поэтому человечество мыслит. И даже мыслящее человечество не может усвоить, что критерий разума есть сострадание. Никогда у машины не появится сознание, никогда машина не станет мыслить, никогда машина не научится состраданию. И каков вывод? Авторы ИИ возьмут свою жертву, когда машина не справится с незакономерно изменяющейся бесконечностью.

-1
2 vitkon  
Хм ...нет никакого ИИ ,есть программы созданные Спецами . Судебный скандал в США - программисты заложили НЕГАТИВНОЕ отношение к неграм ,потому незаконно осужденные были неграми .
Если в программу заложить реакцию на действия вредные для ПЛАНЕТЫ - то ГОМО будет уничтожен роботами . В Синтию заложили на генетическом уровне уничтожение нефти - в результате "эволюционного перекоса " ОНА начала уничтожать белковую форму Жизни .

Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]
Поиск по сайту
Мониторинг
Сейсмическая активность
Солнечная активность
Фазы луны
3D Планета Земля
Солнечная система
Космическая погода
Веб камеры мира
Системы мониторинга
Ионосферная активность
Вспышки на Солнце
Мониторинг вулканов
ТОП Новостей
Миссия "Вояджер": главный секрет Солнечной системы...
Яд для Александра Невского
«Лошадиный хвост» загорится в парке Йосемити в пят...
На Аляске найдено "темное" существо возрастом 69 м...
10 затонувших городов мира
Календарь
«  Февраль 2019  »
ПнВтСрЧтПтСбВс
    123
45678910
11121314151617
18192021222324
25262728
Архив записей
Новое на форуме

1. Паразиты сознания. Новая теория заговора.

(52)

2. чего мне не хватает для счастья?

(4)

3. *ЗВЁЗДНЫЙ АСТРОНОМ*

(416)

4. ВСЁ.., ЧТО В МИРЕ.., ИНТЕРЕСНО..!!! часть №2

(6956)

5. ВЕРА в СЕБЯ

(743)

Последние комментарии




Не важно у кого поднялась рука...

При использовании материалов Земля - Хроники Жизни гиперссылка на сайт earth-chronicles.ru обязательна.
Рейтинг@Mail.ru Яндекс цитирования