Все, что нужно для того, чтобы дипфейки в реальном времени потерпели неудачу, — это «поворот на 90 градусов»

Все, что нужно для того, чтобы дипфейки в реальном времени потерпели неудачу, — это «поворот на 90 градусов»



Дипфейки в реальном времени

На сегодняшний день дипфейки в видеороликах обычно игнорируются сообществом исследователей безопасности.

Глупфейковые видео в реальном времени, провозглашенные вестниками новой эры интернет-неуверенности, по-видимому, имеют фундаментальный недостаток: они не могут обрабатывать сторонние профили. Компания Metaphysic, занимающаяся программным обеспечением искусственного интеллекта, многие современные программы для дипфейков просто не умеют воссоздавать профиль чьего-либо лица. Существует интересная уязвимость в видеодипфейках, которая до сих пор обычно не замечалась сообществом исследователей безопасности, возможно, потому, что «живые» дипфейки в реальном времени во время видеозвонков до недавнего времени не вызывали серьезного беспокойства. Большая часть визуального контента, который существует, большую часть времени не включает снимки профиля, потому что это просто нежелательно.

Живые дипфейки в режиме реального времени в видеозвонках:

Головы дипфейков поворачиваются на 90 градусов в обе стороны, и фотореалистичная иллюзия разваливается. DeepFaceLive — это версия популярного программного обеспечения DeepFaceLab для прямой трансляции, которая способна создавать альтернативные видеоидентификации в режиме реального времени. «Живая» модель дипфейка нуждается в способности выполнять матирование по желанию и по запросу на приемлемо убедительном уровне.

Живое дипфейковое видео имеет общую проблему с дополненной реальностью — необходимость наложения реальных изображений рук и других видов реальных препятствий на нереальное изображение. Большинство 2D-алгоритмов выравнивания лица назначают только 50-60 процентов количества ориентиров от вида лица спереди к виду профиля. С помощью технологий 3D-сканирования тела мошенник вполне может превратить свое собственное подобие в чужое.

В то время как технологии дипфейков, возможно, добились больших успехов в последние годы. Видео Deepfake также использовалось для обмана программного обеспечения для распознавания лиц в реальном времени. Исследовательское сообщество было активно вовлечено в разработку технологий обнаружения дипфейков с момента возникновения этого явления, но в некоторой степени ему мешает тот факт, что они не могут взаимодействовать с материалом, который исследуют.

READ  Павел Дуров обвинил Apple в необоснованной задержке обновления Telegram • Interpult Studio

Больше популярных историй

  • Amazon официально шпионит за вашим домом через покупку iRobot
  • Как определить успешный стартап Web3 и инвестировать в него?
  • Искусственный интеллект помогает умным микророботам научиться плавать и ориентироваться
  • Системы ИИ — это не люди! Суд США отказывает в патентном праве на машины
  • Чат-бот Meta с искусственным интеллектом так же запутался, как и вы, в осуждении Цукерберга
  • Спрос на работу в области кибербезопасности будет уделять больше внимания недостаточно представленным людям
  • Топ-10 производителей программного обеспечения для глубокого обучения, о которых нужно знать в 2022 году
  • Почему фраза Илона «Я в основном поддерживаю Doge» может длиться недолго!

Сообщение Все, что нужно для того, чтобы Deepfakes в реальном времени потерпели неудачу, — это «поворот на 90 градусов», впервые появившийся на .



Source link