Новое в клипарте

К 2040 году искусственный интеллект может произвести переворот в принципах ядерной безопасности

К 2040 году искусственный интеллект может произвести переворот в принципах ядерной безопасности

В недавно опубликованном исследовании корпорации RAND сделан вывод, что к 2040 году искусственный интеллект (ИИ) может радикально изменить концепцию ядерного сдерживания.

«Машина судного дня» под управлением ИИ пока представляется маловероятной, но реальные риски ИИ для ядерной безопасности заключаются в способности ИИ побудить людей к принятию неоправданных, потенциально апокалипсических решений.

К 2040 году искусственный интеллект может произвести переворот в принципах ядерной безопасности

Во времена Холодной войны концепция гарантированного взаимного уничтожения поддерживала шаткий мир между супердержавами, утверждая, что любая атака приведёт к разрушительному возмездию. В итоге концепция ГВУ обеспечивала стратегическую стабильность, отрезвляюще действуя на обе стороны в их готовности к действиям, реально способным перерасти в атомную войну.

В публикации RAND говорится, что в ближайшие десятилетия ИИ вполне способен разрушить концепцию гарантированного взаимного уничтожения и тем самым подорвать стратегическую стабильность нашего мира. Более совершенные датчики делают вероятной ситуацию, когда «орудие возмездия» — например, атомная субмарина и мобильные ракеты, — могут быть опознаны и уничтожены.

Нации могут войти в соблазн стремиться к обладанию средствами первого удара, как если бы это давало преимущества над соперниками, даже если у них нет намерения нанести удар первыми. Это подрывает стабильность тем, что если даже сторона, способная атаковать первой, не собирается использовать эту возможность, её противник не может быть уверен в этом.

«Связь между ядерной войной и ИИ не нова, в действительности их истории переплетаются, — говорит Эдвард Гайст, соавтор статьи и сотрудник корпорации RAND. — Изначально существенная часть исследований в области ИИ выполнялась с поддержкой военных, преследуя их цели».

Как пример он привел «адаптивный планируемый эксперимент выживаемости», проведённый в 1980-х, целью которого было использовать ИИ для объединения разведданных с целеуказанием для средств ядерного поражения.

В случае неопределённости ИИ мог бы укрепить стабильность стратегической ситуации, улучшив точность собираемых разведданных и их анализ.

Исследователи полагают, что в процессе развития ИИ станет менее подвержен совершению ошибок по сравнению с людьми, а значит окажется фактором стабильности в долгосрочном плане.

Источник

Поделиться:

Категории сайта

Новости