Профиль компании
1) Профиль компании
Reality Defender — это стартап-компания, основанная в 2021 году и специализирующаяся на обнаружении дипфейков и синтетических носителей. Она предоставляет услуги по обнаружению дипфейков для различных модальностей. Разрабатываемые ею инструменты обнаружения подходят для выявления синтеза искусственного интеллекта и фальшивых текстов, изображений, видео и т. д. и аудио, предоставляя решения для глубокого обнаружения фейков для правительственных учреждений, финансовых предприятий, средств массовой информации и других крупных организаций. На официальном сайте Reality Defender [1] упоминается, что он помог азиатским национальным общественным вещателям и транснациональным банкам справиться с распространением ложной информации и мошенничеством с личными данными, вызванным глубокой подделкой.
В настоящее время Reality Defender получила финансирование в размере 15 миллионов долларов США в рамках серии А, возглавляемой венчурной фирмой DCVC при участии таких организаций, как Comcast, Ex/ante, Parameter Ventures и AI Grant Ната Фридмана.
2) Функции продукта
Reality Defender предоставляет множество инструментов обнаружения глубокой подделки, включая инструменты обнаружения текста, изображений, аудио и видео, генерируемых искусственным интеллектом, и может выявлять распространенные угрозы глубокой подделки, такие как подмена лиц, клонирование голоса и мошеннический текст. Эти инструменты предоставляются в виде API-интерфейсов или веб-приложений и используются для анализа и поиска признаков и признаков дипфейковых модификаций в обнаруживаемых образцах, тем самым определяя, являются ли данные в файлах, загружаемых пользователями, синтетическими или поддельными.
Рис. 1. Reality Defender обеспечивает обнаружение изображений, аудио, видео и текста.
Чтобы создать более надежную и высокоточную систему обнаружения дипфейков, Reality Defender объединяет набор моделей обнаружения искусственного интеллекта вместо одной модели. Он обнаруживает загруженные файлы с разных точек зрения и, наконец, выводит прогнозируемые вероятности и визуализирует результаты.
Рис. 2. Reality Defender обеспечивает уверенность в том, что обнаруживаемое изображение подделано искусственным интеллектом.
Кроме того, Reality Defender предоставляет инструменты проверки дипфейков в режиме реального времени, позволяющие мгновенно фиксировать потенциальный контент, синтезированный искусственным интеллектом. Эта функция имеет решающее значение для своевременного прекращения финансового мошенничества и предотвращения утечки информации. Пользователи могут встроить инструмент обнаружения Reality Defender в набор инструментов, чтобы гарантировать, что личность другой стороны отслеживается в режиме реального времени во время звонка и разговора, предотвращая падение пользователей. в ловушки для кражи личных данных.
Рис. 3. Reality Defender поддерживает обнаружение подделки аудио в реальном времени.
В целом, инструменты обнаружения дипфейков, предоставляемые Reality Defender, могут выявлять ложный медиаконтент и вредоносную информацию, помогая командам предотвращать и реагировать на угрозы дипфейков искусственного интеллекта.
Технология глубокой подделки и обнаружения
1) Глубокие фейки
В 2017 году пользователь Reddit «deepfakes» выпустил первый алгоритм deepfake, который может проецировать лицо известного актера на порнографическое видео; в 2018 году BuzzFeed использовал программное обеспечение FakeApp для создания дипфейкового видео речи Обамы в 2019 году; Злоумышленник успешно выдал себя за голос генерального директора немецкой компании на основе программного обеспечения искусственного интеллекта и побудил генерального директора британской энергетической компании передать 2 20 000 евро... Поскольку глубокая подделка привлекла внимание, в Интернете продолжают появляться приложения для глубокой подделки (такие как FakeApp, Faceswap и т. д.), позволяющие любому нетехническому человеку легко и без особых затрат создавать различные фейковые видеоролики. Хотя глубокая подделка играет положительную роль в сфере кинопроизводства, она также спровоцировала общественную панику по поводу распространения ложных новостей, выдачи себя за другое лицо, телекоммуникационного мошенничества и других явлений в социальных сетях, что серьезно подрывает социальное доверие и информационный порядок.
Deepfake — это тип атаки, в которой используются алгоритмы глубокого обучения для захвата выражений лица, движений и характеристик голоса людей, а также обучения тому, как заменять лица на изображениях или видео и как синтезировать ложные и реалистичные голоса. Дипфейки зачастую трудно обнаружить невооруженным глазом.
В задаче визуальной подделки изображений и видео технология глубокой подделки требует подделки лиц. Существует два основных метода: один — подмена лица, предполагающая замену лица или синтез нового лица, без модификации лица. модифицируя знак лица, измените некоторые атрибуты исходного лица, например, подделку выражений и подделку определенных действий. Технология визуальной глубокой подделки обычно использует сверточную нейронную сеть (CNN) и генеративно-состязательные сети (GAN) в качестве базовой архитектуры для передачи стилей и сшивания лиц, а также сочетает в себе некоторые технологии глубокого обучения для повышения подлинности и стабильности генерируемого контента. Например, в Faceswap-GAN [2] введены фильтр Калмана и высокие потери при реконструкции, чтобы устранить джиттер, вызванный заменой лица, и улучшить качество генерации области глаз.
Рисунок 4. Принципиальная схема технологии визуальной глубокой подделки[3]
В задаче глубокой подделки звука технология глубокой подделки может выполнять синтез текста в речь (TTS) и преобразование голоса (синтез голоса в речь генерирует голосовой вывод для указанного текста, а преобразование голоса остается неизменным). исходного тембра до целевого тембра достигается, в то время как речевое содержимое остается неизменным. Технология глубокой подделки аудио обычно включает в себя модели искусственного интеллекта, такие как скрытые модели Маркова, модели гауссовской смеси, автокодеры, авторегрессионные модели и генеративно-состязательные сети, в сочетании с такими методами, как спектральное преобразование и расширенная свертка, для обеспечения высокой точности аудиосэмплов.
Генеративные большие модели, добившиеся в последние годы технологических прорывов, также стали катализатором глубокой подделки. Генеративные большие модели могут более точно имитировать выражение лица, движения тела и тембр человека, что делает контент дипфейков более реалистичным и трудно различимым. к появлению глубокого фейкового контента. Его распространение более широко распространено и его трудно контролировать.
2) Глубокое обнаружение фейков
Наиболее распространенной технологией обнаружения дипфейков изображений и видео является метод обнаружения, основанный на различиях в характеристиках изображений до и после подделки или на особенностях изображений, сгенерированных GAN. Первый обычно имеет лучшее обобщение и использует модели глубокого обучения для извлечения изменяющихся функций, таких как обнаружение артефактов в изображениях/отдельных видеокадрах или обнаружение временных особенностей между видеокадрами. Последний более целенаправленный, GAN очень популярен для методов глубокой подделки. Модель, поскольку ее метод обработки цвета, статистические характеристики пространства цветности и т. д. при синтезе образцов будут отличаться от реальных изображений, снятых камерой, и даже оставят стабильные отпечатки модели в сгенерированных изображениях, поэтому функции изображения, созданные GAN Conducting Инспекции также образуют самостоятельное направление.
Рисунок 5. Пример решения для обнаружения видео: извлечение временных характеристик на основе CNN и LSTM [4]
Для одномерных поддельных звуковых сигналов существующие решения по обнаружению в основном полагаются на дифференцированные характеристики биологической информации (такие как скорость речи, голосовой отпечаток, спектральное распределение и т. д.) для обнаружения специальной шумовой информации и следов подделки в поддельной речи. В то же время сложно полностью выявить признаки подделки с помощью одной функции. Поэтому некоторые решения SOTA объединяют информацию о нескольких дополнительных функциях для повышения надежности алгоритма обнаружения.
Несмотря на то, что текущие исследования в области технологии обнаружения дипфейков достигли прогресса, с быстрым развитием технологии дипфейков существующие решения все еще имеют некоторые проблемы, которые необходимо решить:
Подвести итог
Появление генеративных моделей, таких как ChatGPT и Sora, стало новым оружием технологии глубокой подделки. Быстрый прогресс технологии глубокой подделки увеличил сложность обнаружения. Помимо Reality Defender, многие технологические гиганты и стартапы инвестируют в исследования и разработку инструментов в области обнаружения дипфейков с помощью искусственного интеллекта. Например, работают Intel FakeCatcher, стартап по обнаружению дипфейков Optic и Blackbird.ai, созданный в 2014 году. по выявлению искусственного интеллекта. Ожидается, что в будущем продукты для глубокого обнаружения подделок будут уделять больше внимания потребностям обнаружения в реальном времени и мультимодального обнаружения, повышая надежность и точность обнаружения. также будет внедрена технология глубокой подделки, чтобы справиться с более зрелыми и сложными технологиями глубокой подделки обеспечивает хорошую рыночную среду для разработки продуктов для обнаружения глубокой подделки.
Ссылки
[1] http://www.realitydefender.com
[2] Faceswap-GAN. https : / / github . com / shaoanlu /faceswap-GAN.
[3] Nguyen T T, Nguyen Q V H, Nguyen D T, et al. Deep learning for deepfakes creation and detection: A survey[J]. Computer Vision and Image Understanding, 2022, 223: 103525.
[4] David G¨uera and Edward J Delp. Deepfake video detection using recurrent neural networks. In 15th IEEE International Conference on Advanced Video and Signal based Surveillance (AVSS), pages 1–6. IEEE, 2018.