Шифрование изображений против технологии Deepfake — новая онлайн-тактика

Шифрование изображений против технологии Deepfake — новая онлайн-тактика



Шифрование изображений против Deepfake

Шифрование изображений от мошенничества с дипфейками стало приоритетом экспертов по цифровой безопасности.

Технология дипфейков существует уже довольно долгое время, но ее массовое использование сводилось только к мошенничеству и кражам. Эти дипфейковые мошеннические видео собирают огромное количество просмотров и иногда обладают способностью верить в какую-то нелепую схему или легкие стратегии заработка. Эти видео и изображения легко привлекают пользователей социальных сетей и других развлекательных форумов, но они, безусловно, несут в себе опасность с точки зрения обмана людей в мошенничестве или проникновения в систему безопасности. Но растущее число мошенничеств с дипфейками побудило исследователей шифровать изображения против технологии дипфейков. Они считают, что выявление источника видео и изображений, используемых в мошенничестве с дипфейками, может фактически уменьшить и в конечном итоге искоренить эти типы краж.

Специалисты по кибербезопасности утверждают, что в ближайшие годы дипфейки могут создать множество проблем для национальной и международной безопасности. По мере развития этих технологий они могут иметь значительные последствия для бизнеса. Большинство ограблений криптовалюты и банковских махинаций обеспечиваются с помощью глубокой подделки голосовой технологии клонирования. Использование технологии дипфейков становится все более реалистичным и довольно дешевым. Отраслевые эксперты утверждают, что новые сотрудники и руководители должны быть готовы ставить под сомнение подлинность видео, изображений, аудио и новостной информации и постоянно поддерживать связь со специалистами по безопасности, чтобы их данные не использовались для мошенничества с дипфейками. Это одна из основных причин, по которой ученые считают, что кодирование изображений с использованием дипфейков может помочь обуздать эти проблемы.

 

Обеспечит ли эта новая процедура безопасность?

Есть несколько способов, с помощью которых мы можем понять и обнаружить дипфейковые видео, в том числе с помощью определения глубины, нарушения регулярности видео, изменений в освещении монитора, биометрических признаков и даже нашего собственного шестого чувства! Шифрование изображений от мошенничества с дипфейками обеспечивает только более враждебный и точный способ остановить недружественное использование подрывных технологий. Еще в 2021 году Нанкинский университет аэронавтики и астронавтики представил инициативу по шифрованию тренировочных изображений таким образом, чтобы они могли эффективно тренироваться только на авторизованных системах, но она продолжала резко давать сбои, когда они использовались в качестве исходных данных в общем изображении. конвейер обучения синтеза.

READ  Веб-сайт интернет-архива отключен на несколько часов

Новый метод в основном фокусируется на том, чтобы взять архитектуру традиционной концепции и переопределить ее, чтобы сделать ее более надежной. Ученым нужны более проактивные подходы, основанные на кодировании, но они не так легко доступны. Отслеживание существования таких видео потребует от них наличия большого количества интерфейсов социальных сетей, мощности большого количества процессов загрузки, а также для осуществления преобразований в таких расширениях.

 

Нижняя линия

Эти дипфейки могут стать причиной возникновения нескольких опасных политических конфликтов, например, дипфейк видео, где президент Украины просит своих солдат сложить оружие и сдаться России. Западные правительства в полную силу пытаются обуздать существование этих видео и уменьшить мошенничество.

Сообщение «Шифрование изображений против технологии Deepfake — новая онлайн-тактика» впервые появилось на Analytics Insight.



Source link