Метка: voice manipulation

  • Каждый второй россиянин под угрозой дипфейковых атак

    Каждый второй россиянин под угрозой дипфейковых атак

    В этом году каждый второй житель России может столкнуться с атакой, когда мошенники используют технологии дипфейка. Компании, занимающиеся разработкой искусственного интеллекта, предсказывают, что к 2026 году преступники смогут подделывать свои голоса в реальном времени.

    Согласно данным MTS AI, видеокружки и голосовые сообщения в мессенджерах становятся все более популярными, но также уязвимыми для мошенничества. Технически нет возможности проверить источник голосовых сообщений и кружков, в отличие от звонков, которые можно защитить с помощью определителя номера.

    Эксперты предупреждают, что в будущем злоумышленники смогут имитировать разговоры с помощью дипфейков, делая их практически неразличимыми от оригинала. Уже были случаи, когда мошенники использовали дипфейк-видео мэра Москвы для обмана граждан.

    Несмотря на это, создать правдоподобную видеокопию человека требует большого количества изображений в разном свете. Генерация голосовых сообщений также остается сложной задачей. Мошенники используют различные приемы, чтобы скрыть дефекты визуала и аудио, включая использование видеокружков.

    Преступники применяют различные приложения для создания дипфейков и обучают нейросети. Важно быть бдительным и осторожным в интернете, чтобы избежать попадания под влияние мошенников.

  • Дипфейковщики собирают голосовые образцы через автоответчики

    Дипфейковщики собирают голосовые образцы через автоответчики

    Для создания голосового фейка злоумышленникам нужно всего несколько секунд записи голоса жертвы, например, на автоответчике. Они используют эту запись для создания сообщений, которые звучат как от жертвы, и могут использоваться в мошеннических атаках.

    Эксперты говорят, что злоумышленники уже давно используют технологии подделки голоса. Для этого им не нужны специальные знания. Для создания синтетической речи, которая звучит убедительно, нужно немного больше записей голоса.

    Автоответчик может быть источником ключевых фраз и интонаций человека. Мошенники могут использовать сгенерированные сообщения для обмана, например, запрашивая деньги от имени знакомых или подделывая сообщения от начальников.

    Эксперты предупреждают, что современные системы не всегда могут распознать качественные голосовые фейки. Пользователи также могут использовать технологии обработки звука, что усложняет выявление подделок.

    Чтобы защитить себя, лучше не записывать свой голос на автоответчик и использовать стандартные сообщения операторов связи. При получении просьб о финансовой помощи лучше всегда связываться напрямую с отправителем.

    По прогнозам, в 2025 году количество атак с использованием голосовых фейков может значительно увеличиться.