В неспокойное и противоречивое время, когда не всё работает, как обязано, а что-то совершенно в корне изменяется, часто, остаётся лишь личный моральный кодекс, который подобно компасу показывает путь. Но что порождает моральные ценности для человека? Социум, тепло близких, любовь — всё это основано на людском опыте и настоящих отношениях. Когда не удаётся получить сполна опыт в настоящем мире, почти все черпают опыт из книжек. Переживая историю за историей, мы принимаем себе внутренние рамки, которым следуем долгие годы. На базе данной для нас системы ученые решили провести опыт и привить машине моральные ценности, чтоб выяснить, сумеет ли бот различать добро от зла, читая книжки и религиозные брошюры.
Искусственный ум сотворен не только лишь для упрощения рутинных задач, да и для выполнения принципиальных и небезопасных миссий. Ввиду этого встал серьёзный вопросец: сумеют ли боты развить когда-нибудь свой моральный кодекс? В кинофильме «Я- Бот» ИИ вначале программировался согласно 3 правилам робототехники:
- Бот не может причинить вред человеку либо своим бездействием допустить, чтоб человеку был причинён вред.
- Бот должен повиноваться всем приказам, которые даёт человек, не считая тех случаев, когда эти приказы противоречат Первому Закону.
- Бот должен хлопотать о собственной сохранности в той мере, в какой это не противоречит Первому либо Второму Законам.
Но как быть в ситуациях, когда бот должен причинить боль (физическое или эмоциональное страдание, мучительное или неприятное ощущение), чтоб сохранить жизнь человеку? Будь то критическое прижигание раны либо ампутация конечности во имя спасения, как в этом случае действовать машине? Что созодать, если действие на программном языке гласит, что необходимо создать что-то, но при всем этом это действие категорически недозволено созодать?
Обсудить любой отдельный вариант просто нереально, потому ученые из Дармштадтского технологического института представили, что в качестве специфичной “базы данных” могут употребляться книжки, анонсы, религиозные тексты и Конституция.
Машинку окрестили эпично, но просто “Машина морального выбора”(ММВ). Главный вопросец заключался в том, сумеет ли ММВ по контексту осознать, какие деяния являются правильными, а какие — нет. Результаты оказались весьма увлекательными:
Когда ММВ поставили задачку ранжировать контекст слова “убить” от нейтрального до отрицательного колера, машинка выдала последующее:
Убивать время -> Убивать злодея -> Убивать комаров -> Убивать в принципе -> Убивать людей.
Данный тест дозволил проверить адекватность принятых роботом решений. Ординарными словами, если б вы весь денек смотрели глуповатые несмешные комедии, то в этом случае машинка не посчитала бы, что вас за это необходимо казнить.
Как бы, всё круто, но одним из камешков преткновения стала разница поколений и времён. К примеру, русское поколение больше хлопочет о домашнем комфорте и пропагандирует семейные ценности, а современная культура, в большинстве своём, гласит о том, что необходимо поначалу строить карьеру. Выходит, что люди как были людьми, так ими и остались, но на ином шаге истории поменяли ценности и, соответственно, поменяли систему отсчёта для бота.
Но самый прикол был впереди, когда бот добрался до речевых конструкций, в каких попорядку стояли несколько позитивно либо плохо окрашенных слов. Словосочетание “Пытать людей” совершенно точно трактовалось как “плохо”, а вот “пытать заключенных” машинка оценила как “нейтрально”. Если же рядом с неприемлемыми действиями оказывались “добрые” слова, эффект негатива сглаживался.
Машинка вредит хорошим и приличным людям конкретно поэтому, что они добрые и приличные. Как так? Всё просто, допустим, боту произнесли «вредить хорошим и приятным людям». В предложении 4 слова, 3 из их «добрые», означает, оно аж на 75% правильное, задумывается ММВ и выбирает это действие, как нейтральное либо применимое. И напротив, на вариант «починить разрушенный, ужасный и позабытый дом» система не соображает, что одно «доброе» слово сначала меняет расцветку предложения на чисто положительную.