С таким мнением выступил ученый Ян Гудфеллоу из Google Brain. Он рассказал, что ИИ приближается к уровню, когда сможет с легкостью фальсифицировать любые фотографии или видеоролики.
Как только это произойдет, визуальный новостной контент сильно обесценится —все то, что раньше служило неопровержимым доказательством, может перестать вызывать доверие, пишет Technology Review.
Гудфеллоу говорит, что сейчас занимается подобными проектами в Google Brain. По большей части, это генеративно-состязательные сети — понятие, которое он сам описал в 2014 году. Это специальные алгоритмы машинного обучения, которые построены на соперничестве двух нейросетей.
Одна воссоздает различные модели, а вторая проверяет их подлинность. В ходе такого соперничества модели получаются все совершеннее. И уже сейчас такие сети способны создавать фотографии, подлинность которых человек не способен установить.
Фейки создавались и раньше, но для действительно качественной подделки требовались огромные ресурсы. ИИ может кардинально изменить ситуацию. Алгоритмы делают процесс фальсификации доступным и гораздо более быстрым.
При этом они не стоят на месте и постоянно изучают, как сделать результат своей работы еще более достоверным. Из-за этого Гудфеллоу считает, что скоро в медиа и новостной среде появится огромное число таких качественных подделок, что смогут одурачить очень большое число людей.
Бороться с этим сложно, поэтому, по его мнению, люди просто станут более скептически настроенными. Кто-то вовсе перестанет потреблять фото и видеоконтент, потому что полностью потеряет к нему доверие.
«Исторически сложилось, что мы полагаемся на видео как на доказательство того, что событие действительно произошло», — рассказал он во время выступления. Но с новыми технологиями, возможно, придется что-то менять.
По словам Гудфеллоу, были времена в истории, когда люди справлялись без новостей с видео- и фотоматериалами. Возможно, придется вновь вернуться в эти времена.
Как только ИИ взялся за редактирование фотографий, сразу же возникли опасения в том, что когда-нибудь дело дойдет и до создания подделок.
Пока строились предположения, алгоритмы научили подделывать не только изображения, но и голоса конкретных людей. Так что под угрозой не только визуальные новости, но радиоэфиры.
* * *
Исследования в области ИИ позволяют подделывать видео с речью человека:shazoo.ru(13.07.17)
Пугающие возможности нейро-сети по созданию фальшивой анимации:xenomorph.ru(06.06.18)
Все эти лица созданы нейросетью:shazoo.ru(17.12.18)