Skip to content Skip to sidebar Skip to footer

Каждый второй россиянин под угрозой дипфейковых атак

В этом году каждый второй житель России может столкнуться с атакой, когда мошенники используют технологии дипфейка. Компании, занимающиеся разработкой искусственного интеллекта, предсказывают, что к 2026 году преступники смогут подделывать свои голоса в реальном времени.

Согласно данным MTS AI, видеокружки и голосовые сообщения в мессенджерах становятся все более популярными, но также уязвимыми для мошенничества. Технически нет возможности проверить источник голосовых сообщений и кружков, в отличие от звонков, которые можно защитить с помощью определителя номера.

Эксперты предупреждают, что в будущем злоумышленники смогут имитировать разговоры с помощью дипфейков, делая их практически неразличимыми от оригинала. Уже были случаи, когда мошенники использовали дипфейк-видео мэра Москвы для обмана граждан.

Несмотря на это, создать правдоподобную видеокопию человека требует большого количества изображений в разном свете. Генерация голосовых сообщений также остается сложной задачей. Мошенники используют различные приемы, чтобы скрыть дефекты визуала и аудио, включая использование видеокружков.

Преступники применяют различные приложения для создания дипфейков и обучают нейросети. Важно быть бдительным и осторожным в интернете, чтобы избежать попадания под влияние мошенников.

© KiberSec.ru – 05.05.2025, обновлено 05.05.2025
Перепечатка материалов сайта возможна только с разрешения администрации KiberSec.ru.