В этом году каждый второй житель России может столкнуться с атакой, когда мошенники используют технологии дипфейка. Компании, занимающиеся разработкой искусственного интеллекта, предсказывают, что к 2026 году преступники смогут подделывать свои голоса в реальном времени.
Согласно данным MTS AI, видеокружки и голосовые сообщения в мессенджерах становятся все более популярными, но также уязвимыми для мошенничества. Технически нет возможности проверить источник голосовых сообщений и кружков, в отличие от звонков, которые можно защитить с помощью определителя номера.
Эксперты предупреждают, что в будущем злоумышленники смогут имитировать разговоры с помощью дипфейков, делая их практически неразличимыми от оригинала. Уже были случаи, когда мошенники использовали дипфейк-видео мэра Москвы для обмана граждан.
Несмотря на это, создать правдоподобную видеокопию человека требует большого количества изображений в разном свете. Генерация голосовых сообщений также остается сложной задачей. Мошенники используют различные приемы, чтобы скрыть дефекты визуала и аудио, включая использование видеокружков.
Преступники применяют различные приложения для создания дипфейков и обучают нейросети. Важно быть бдительным и осторожным в интернете, чтобы избежать попадания под влияние мошенников.
© KiberSec.ru – 05.05.2025, обновлено 05.05.2025
Перепечатка материалов сайта возможна только с разрешения администрации KiberSec.ru.