Новейшее оружие с применением искусственного интеллекта — фальсификация фотографий поверхности Земли, фальшивость которых которые невозможно определить
На сегодняшний день серьёзное беспокойство вызывают цифровые подделки, то есть созданные в результате компьютерной обработки видео, где показано, как знаменитые люди произносят речи или совершают действия, которых на самом деле никогда не было. Однако цифровые подделки выглядят милой мелочью по сравнению с новой угрозой – фальшивыми изображениями поверхности Земли.
Китай является признанным лидером в использовании генеративно-состязательных сетей (generative adversarial networks — GAN) – новой технологии, применяемой для того, чтобы заставить компьютеры «видеть» на рельефе местности или на спутниковых изображениях объекты, которых в действительности там нет, заявил Тодд Майерс, начальник информационного управления в Национальном агентстве геопространственной разведки.
«Китайцы намного опередили нас, и это не является секретом», – прокомментировал Майерс, добавив, что Пекин уже завершил разработки и теперь злонамеренно использует GAN для манипулирования кадрами и пикселями.
Например, пояснил эксперт, неприятель может обмануть использующих компьютеры специалистов по анализу видовой информации путём передачи данных о том, что мост пересекает важную реку в определённом пункте. «Таким образом, с точки зрения тактики или планирования миссии, вы готовитесь двигаться определённым маршрутом к мосту, но его там нет. На месте вас ждёт большой сюрприз», – отметил он.
Впервые описанные в 2014 году, GAN представляют собой большой шаг вперёд в обучении нейронных сетей видеть и распознавать объекты, а также отделять правду от выдумки.
Скажем, вам необходимо с помощью обычной нейронной сети выяснить, что представляют собой объекты на спутниковых фотографиях. Сеть разобьёт картинку на несколько частей или кластеров пикселей, вычислит, как эти фрагменты связаны друг с другом, и затем определит, что же там изображено. Этот процесс основан на опыте просмотра большого количества спутниковых фотографий.
GAN переворачивают этот процесс, противопоставляя две сети друг другу – отсюда и термин «состязательный». Обычная сеть действует следующим образом: «Наличие x, y и z в этих пиксельных кластерах означает, что это изображение кота». Но сеть GAN «рассуждает» по-другому: «Это изображение кота, поэтому x, y и z должны присутствовать. Что такое x, y и z и как они соотносятся?». Состязательная сеть учится конструировать или генерировать x, y и z таким образом, чтобы убедить первую нейронную сеть в том, что где-либо расположен какой-то объект, хотя, возможно, его там на самом деле нет.
Многие учёные полагают, что GAN применимы для обнаружения предметов, а также для отделения настоящих изображений от поддельных. Так, в 2017 году китайские учёные использовали GAN для распознавания дорог, мостов и других объектов на спутниковых фотографиях. Однако вызывает беспокойство факт, что та же самая технология, которая способна увидеть разницу между настоящими и поддельными мостами, может также «создавать» ложные мосты, которые искусственный интеллект не отличит от реальных.
Как пояснил Майерс, поскольку мир всё сильнее зависит от изображений из открытых источников для получения представлений об условиях местности, небольшое количество умело сфальсифицированных данных, выложенных в общий доступ, может создать хаос. «Забудьте о [министерстве обороны] и [разведывательном сообществе]. Представьте, что «Google Карты» целенаправленно наполняются этим. И представьте, что будет, когда через пять лет фуры Tesla с автоматическим управлением станут использовать их для определения маршрута», – отметил он.
Если речь идёт о фальшивых видео людей, то биометрические показатели, такие как пульс и речь, могут позволить обнаружить обман, но подобная техника не применима для выяснения истинности условий местности.
Даже если вы преодолеете GAN, многие системы распознавания изображений могут быть «одурачены» путём добавления небольших визуальных изменений к самим физическим объектам. Например, наклейку на знаке остановки едва ли заметит водитель, а вот систему машинного зрения она вполне может сбить с толку, как продемонстрировала руководитель программы DARPA Хава Зигельманн.
По мнению Майерса, военное и разведывательное сообщество может успешно противодействовать GAN, но это потребует большого количества времени и средств в связи с необходимостью многочисленных дублирующих наборов спутниковых изображений и прочих подкрепляющих доказательств: «Для каждого комплекта необходимо иметь дубликат из других источников».
Задача имеет как техническую, так и финансовую сторону. «Самое главное – это финансирование, необходимое для обеспечения реализации предложенных мер», – подчеркнул Майерс.
Американские чиновники подтвердили, что подлинность данных вызывает всё большую обеспокоенность. Для защиты информации принимаются самые серьёзные меры, отметил генерал-лейтенант Джек Шанахан, который руководит новым Объединённым центром искусственного интеллекта в Пентагоне.
Сложнее дело обстоит с данными и изображениями из открытых источников. Ими пользуются все – новостные организации, граждане, правозащитные группы, хедж-фонды, но вопрос о том, как обезопасить эту информацию, остаётся нерешённым. Разрыв между «правдой», которой может располагать правительство, и «правдой», доступной для общественности, может вскоре стать непреодолимым, что ещё сильнее подорвёт доверие к сообществу национальной безопасности и функционированию демократических институтов.
Глава Цифрового управления ЦРУ Эндрю Холлман сформулировал вопрос с точки зрения конфликта эпического масштаба: «Мы ведём жизненно необходимую борьбу за правду в цифровой сфере. Именно здесь важна помощь частного сектора… Это один из моих самых высоких приоритетов».
Когда Холлману задали вопрос о том, хорошо ли ЦРУ осознаёт сложности, связанные с поддельной информацией из открытых источников, он ответил: «Я думаю, что мы только начинаем понимать масштабы проблемы».
02.04.2019 14:34