Границы цифрового мира расширяются, а вместе со стремительным развитием возможностей искусственного интеллекта растет и беспокойство относительно его использования для создания и распространения фейковых новостей. Даже в текстовой форме дезинформация и борьба с ней стали настоящим вызовом сегодняшнего дня, но что делать, когда предметом манипуляции могут стать сфабрикованные видеообращения лидеров стран, которые могут публично призывать, например, к боевым действиям?
Большинство людей уже привыкло ко многим формам манипуляций изображениями: приложение на смартфоне сегодня в считанные минуты может помочь изменить любые детали фотографии или, например, обменяться лицами с любым человеком, включая политиков, и начать говорить от их имени. Но эти изображения (и видео) обычно очень легко отличить от реальных, как минимум, из-за несовершенного изображения.
Однако возможности искусственного интеллекта уже достигли уровня, когда он способен генерировать чрезвычайно реалистичные фото и видео людей, подлинность которых сложно проверить даже ему самому.
Нам часто говорили не верить всему, что мы читаем, но скоро нам нужно будет начать сомневаться во всем, что мы видим и слышимThe Guardian
«Нам часто говорили не верить всему, что мы читаем, но скоро нам нужно будет начать сомневаться во всем, что мы видим и слышим», ‒ говорится в издании The Guardian. Эксперты предупреждают: вскоре искусственный интеллект сможет качественно подделывать не только фото, но и аудио, что существенно осложнит борьбу с фейковыми новостями и дезинформацией.
Проблематика фейковых видео
Американская корпорация Nvidia еще в октябре прошлого года продемонстрировала способность ее искусственного интеллекта создавать «тревожно реалистичные образы несуществующих людей», говорится в издании Futurism. Позже этот искусственный интеллект уже научился манипулировать видеоизображениями, превращая день в ночь, зиму в лето или солнечный день в дождливый.
Сегодня Nvidia инвестирует большие деньги в исследования возможностей искусственного интеллекта. Команда исследователей корпорации разработала систему, способную создавать изображения лиц на основе анализа тысяч фотографий известных людей и находить схожие черты, объясняют Кейд Мец и Кейт Коллинс в статье для The New York Times. Эта система способна генерировать чрезвычайно реалистичные и четкие изображения животных, растений и многих других предметов, которые отличить от реальности очень сложно.
Более того, пока одна нейросеть создает новые лица, другая ‒ пытается выявить, эти изображения настоящие или поддельные. «По сути, одна система работает лучше для того, чтобы перехитрить другую, которая делает все возможное для того, чтобы не дать себя обмануть», ‒ объясняют авторы.
И если первоочередной целью исследователей было улучшение компьютерных интерфейсов и видеоигр, во времена, когда фейковые новости являются серьезной проблемой, введение таких технологий, вероятно, чрезвычайно осложнит возможность отличать правду от подделок ‒ технологии только усугубят проблемы с дезинформацией.
Но дело в том, что такие «таланты» искусственного интеллекта доступны не только исследователям крупных корпораций. Как сообщается в издании The Independent, недавно пользователь социальной сети Reddit использовал возможности искусственного интеллекта для того, чтобы высококачественно заменить лицо порноактрисы на лицо актрисы Гал Гадот, которая была главной героиней фильма «Чудо-женщина». Алгоритм позволил «наложить» лицо актрисы на видео, и отличить подделку стало довольно сложно. И здесь возникает определенная проблема: «алгоритмы не беспокоятся о согласии, конфиденциальности или законности» таких вещей, говорится в статье.
Как сообщает газета The Daily Mail, такой случай уже не первый. Издание обращает внимание на то, что «любительское видео имеет тревожные последствия, показывая, как свободно доступные ресурсы могут быть использованы для создания поддельных фильмов в течение нескольких дней или даже часов».
«Голосовой фотошоп», который может развязать войну
Самой большой потерей, вызванной искусственным интеллектом, станет полное уничтожение доверия к чему-либо, что вы видите или слышитеУильям Веслер
«Самой большой потерей, вызванной искусственным интеллектом, станет полное уничтожение доверия к чему-либо, что вы видите или слышите», ‒ объясняет в статье для Wired Уильям Веслер. Он обращает особое внимание на проблематику воспроизведения искусственным интеллектом не только фейковых фото или видео, но и аудио.
Проект Adobe Voco сейчас разрабатывает программу, которую уже успели назвать «голосовым фотошопом»: она заменяет «сигналы для точек, чтобы создать то, что естественно звучит. Компания делает ставку на то, что в случае, если имеется достаточное количество записей речи человека, для изменения записи его голоса нужно будет сделать немного больше, чем «вырезать и вставить», ‒ объясняет Веслер.
Несмотря на ожидаемые прибыли от технологии, она может иметь крайне негативные последствия и даже привести к войне, отмечает автор. Замену голоса могут начать широко использовать для того, чтобы обмануть или сбить людей с толку: «Просто представьте себе последствия поддельного голоса мирового лидера, который делает воинственные заявления, подкрепленные фальсифицированными видео. Смогут ли в 2018 году граждане или военные генералы, определить, что это фальшивка?» ‒ спрашивает Веслер.
Профессор Хани Фарид, эксперт по выявлению фейковых фотографий и видеороликов, особенно «обеспокоен тем, как быстро распространяется вирусный контент и насколько медленным является процесс проверки. Фарид представляет ближайшее будущее, в котором убедительный фальшивый видеоролик, где президент США Дональд Трамп дает команду о полном ядерном уничтожении Северной Кореи, становится вирусным и вызывает панику, подобно переизданию фильма «Война миров» в эпоху искусственного интеллекта», ‒ говорится в издании Wired.
Искусственный интеллект знает, как заставить вас плакать
Более того, искусственный интеллект сможет не просто манипулировать аудио- и видеоизображениями, но и знать, как лучше вызвать у людей сильные эмоции. Как сообщает консалтинговая компания McKinsey&Company, исследователи решили дать глубокой нейронной сети пересмотреть тысячи коротких лент, чтобы обнаружить, какие именно моменты в фильмах особенно эмоциональны. Затем они испытали решения искусственного интеллекта на настоящих людях, которые подтвердили результат машины.
Это свидетельствует о том, что вскоре компании с помощью искусственного интеллекта будут производить контент, который будет манипулировать человеческими эмоциями лучше, чем мог бы придумать любой режиссер. И среди исследователей уже есть определенные опасения, что такую же методологию начнут использовать медиакорпорации и государства для собственных целей.
Эксперты соглашаются, что, вероятно, ничто не может остановить волны контента, созданного искусственным интеллектом, который будет использоваться также и в политических целях. По мнению Сандры Упсон в статье для Wired, с развитием искусственный интеллект «все больше будет имитировать человеческие действия. В конце концов, у него нет другого выбора, кроме как стать совсем человеческим: склонным к добру и злу в равной степени».
FACEBOOK КОММЕНТАРИИ: