Пентагон разработал новые этические принципы для ИИ на войне
Этическое использование
В понедельник Пентагон объявил об официальном принятии ряда новых принципов, определяющих этику использования искусственного интеллекта в военных действиях, сообщает агентство Associated Press.
Принципы были сформулированы комиссией, получившей название (мрачный новояз) Совет по оборонным инновациям, которая в прошлом октябре разработала свои рекомендации для Пентагона (с титульным названием «Принципы ИИ: рекомендации по этическому использованию искусственного интеллекта Министерством обороны»).
Совет возглавил бывший генеральный директор Google Эрик Шмидт — интересный поворот (как отмечает AP), тем более, что Google, как представлялось, (возможно, намеренно) ушел из проекта министерства обороны по разработке ИИ в 2018 году после многочисленных протестов сотрудников корпорации (не говоря уже о том, как Пентагон привлек к этому Google).
«Ответственность»
Согласно имевшимся на конец 2019 года данным, эти принципы следующие (с авторскими комментариями в скобках):
- Ответственность («люди» в министерстве обороны должны проявлять здравый смысл при использовании ИИ на войне);
- Справедливость (Министерство обороны «должно предпринимать обдуманные шаги», чтобы избежать предвзятости в отношении признания ИИ);
- Отслеживаемость (Министерство обороны должно иметь свои домашние наработки и понимать, как работает технология)
- Надежность (системы ИИ должны иметь «четко обозначенную область применения», а также хорошо работать)
- Управляемость (системы ИИ должны иметь «способности обнаруживать и избегать непреднамеренного вреда или отказов»;
Кому-то может показаться, что все это звучит слишком обще, безвредно, неээфективно, близоруко, беззубо и шито белыми нитками, хотя…
Принципы
В Next Web назвали принципы слишком «туманными» и «беззубыми». А Дейв Гершгорн из OneZero отметил, что среди этих предполагаемых этических принципов отсутствует самый важный: «Нельзя никого убивать с помощью роботов».
26.02.2020 18:54