Новое в клипарте

Новый вид фейковых новостей, к которым не готов Интернет — поддельное порно

Новый вид фейковых новостей, к которым не готов Интернет — поддельное порно

С тех пор, как Facebook наконец признал проблему фейковых новостей, компания пыталась с этим бороться. Она наняла тысячи людей, чтобы помочь заблокировать поддельные объявления, стала работать со сторонними организациями по проверке фактов и занялась разработкой алгоритмов для обнаружения фальшивок. Но в то время, когда усилилась борьба с мошеннической рекламой и выдуманными событиями, на горизонте появилась еще одна потенциальная угроза — создание с помощью ИИ поддельных видео.

Издание Motherboard недавно обнаружило новую тревожную тенденцию — пользователи создают сгенерированные ИИ порнографические клипы, заменяя физиономии порнозвезд лицами совершенно других людей. Сообщение об этом появилось месяц назад, когда пользователь Reddit разместил видео с Галь Гадот, лицо которой было совмещено с телом порнозвезды. Видео создано с помощью алгоритмов машинного обучения, легкодоступных библиотек с открытым исходным кодом и изображений Google, фотографий и видео на YouTube.

Подпись к видео: Физиономия порноактрисы в ролике заменена лицом Джессики Альбы с помощью приложения «deepfakes»

Теперь появились приложения, которые помогают десяткам тысяч других людей делать то же самое — и не только со знаменитостями, но и с обычными людьми. Создатель приложения, получившего название «deepfakeapp», сказал журналистам, что в конечном итоге он хочет оптимизировать пользовательский интерфейс, чтобы пользователи могли «выбрать видео на своем компьютере, загрузить нейронную сеть, связанную с определенным лицом из общедоступной библиотеки, и поменять на видео физиономии учаснтиков нажатием одной кнопки». Хотя поддельные видеоролики не идеальны, но некоторые выглядят действительно пугающе реалистичными.

На недавнем круглом столе, посвященном ИИ, в Сан-Франциско эксперты из различных технологических компаний поделились своим мнением о том, как можно защититься от таких вредоносных технологий. Ли Фан, глава инженерного отдела Pinterest, сказал, что в случае замены персонажей во взрослых фильмах блокировка фейковых видео не будет слишком сложной. Можно запустить алгоритм проверки соответствия лица, чтобы отфильтровать определенные базы данных лиц знаменитостей. Но, к сожалению, вероятно, на этом дело не кончится.

Возможно, самый интригующий ответ пришел от Жоакин Куинонеро Кандела, директора по прикладным машинным обучением в Facebook. «Я уверен, что мы можем создавать алгоритмы для обнаружения контрафактного контента», — сказал он, повторив мнения остальной части экспертов, а также согласился с комментарием, что «лучшая защита — это ИИ». Но он согласился с тем, что растущая доступность и эффективность алгоритмов имитации представляет собой довольно серьезную проблему.

Излишне говорить, что это может иметь опасные последствия. Это не только открывает дверь для ужасающего нового вида мести в виде порно, но также открывает ящик Пандоры, когда уже никогда нельзя будет доверять Интернету. Не нужно иметь много воображения, чтобы представить себе мир, в котором иностранные государства будут использовать ИИ для создания и распространения видео политиков или общественных деятелей, говорящих о вещах, о которых они никогда не говорили.

Всего несколько месяцев назад исследовательская группа из Вашингтонского университета смогла создать искусственное видео о президенте Обаме, где тот выступал с речью. Им понадобилось его выступления продолжительностью 14 часов для обучения нейронной сети синхронизировать движения губ с речью. Система даже синхронизирует движения головы и челюсти, чтобы все это выглядело более реалистично. В то время как для такого рода магии раньше требовались часы кропотливой работы, теперь сама нейронная сеть справлялась с этим за несколько часов.

И это еще не все. Несколько лет назад в Стэнфордском университете было разработано программное обеспечение под названием Face2Face, которое позволяло захватывать чье-то лицо с веб-камеры, а затем переставлять его человеку на видео. Команда из Университета штата Алабама в Бирмингеме также работает над созданием синтезированной речи, взятой из аудио и видеороликов и радиопередач YouTube.

ИИ может быть опасным инструментом в руках злоумышленников. И хотя сам ИИ, в свою очередь, может быть использован для обнаружения подделок, этого явно недостаточно в борьбе с человеческими слабостями. И видя, как не удается блокировать вводящие в заблуждение новостные сюжеты, кажется маловероятным, что можно остановить распространение фальшивых видео. Компании, подобные Facebook, должны помнить о том, что одна из их основных обязанностей — действовать в интересах общества. И мы не можем допустить побочный ущерб в игре систем ИИ между собой в «кошки-мышки».

Источник

Поделиться:

Категории сайта

Новости