IVA Technologies и VisionLabs защитят ВКС-системы от дипфейков

IVA Technologies и VisionLabs защитят ВКС-системы от дипфейков

08 июля 2025

Российский разработчик экосистемы корпоративных коммуникаций IVA Technologies и специалист в области распознавания лиц VisionLabs договорились о внедрении цифровых решений для защиты от дипфейков в сервисах видеоконференцсвязи.  

Сотрудничество позволит компаниям объединить знания в области разработки профессиональных ВКС-систем и компьютерного зрения, чтобы создать решение для видеозвонков, которое сможет отличать реальных людей от сгенерированных с помощью нейросетей. 

Комментирует Дмитрий Марков, генеральный директор VisionLabs:

«Злоумышленникам доступно множество сервисов для создания дипфейков, которые сложно определить человеческому глазу. Защита от такого мошенничества особенно важна для сервисов видеоконференцсвязи, где нужно оценивать, что все собеседники — те, за кого себя выдают.

Видеозвонки сегодня применяются при медицинских консультациях, на онлайн-экзаменах, для подтверждения личности при банковских операциях. Все эти сценарии требуют повышенной защиты от цифровых атак, и VisionLabs предоставляет инструменты для достижения необходимого уровня безопасности».

В основу решения ляжет технология распознавания дипфейков Deepfake Detection, разработанная VisionLabs. С помощью компьютерного зрения сервис будет выявлять все самые распространенные техники — замена и генерация лица, перенос выражения лица и синхронизация губ. Общая точность работы детектора на собственных тестах компании составляет 99,3%, причем сохраняется она даже при плохом качестве видео, например, если у пользователя фронтальная камера с низким разрешением.

Дополняет Станислав Иодковский, генеральный директор IVA Technologies:

«Мошенничество с использованием методов социальной инженерии стало одной из самых распространенных и опасных форм обмана в современном обществе. По мнению экспертов, в 2025 году каждый второй россиянин столкнется с дипфейк-атакой.

Эта проблема не обошла стороной и видеозвонки. Ученые из Университета Ватерлоо провели исследование, согласно которому почти 40% людей не могут отличить реальные лица от тех, которые сгенерировала нейросеть. Проблема усугубляется тем, что технологии генерации лиц становятся все более изощренными. 

Так, в феврале 2024 года транснациональная компания в Гонконге потеряла $25,6 млн из-за обмана сотрудника филиала с помощью технологии дипфейков во время видеосвязи. В ответ на этот вызов мы вместе с VisionLabs решили разработать решение, направленное на защиту видеозвонков от потенциальных угроз и создание более безопасной цифровой среды. Продукт будет актуален для облачных сервисов ВКС».

Подпишитесь на рассылку
и получайте популярные статьи, видео и кейсы за неделю в одном письме