Метка: disinformation

  • Дипфейк с губернатором Калининградской области в сети

    Дипфейк с губернатором Калининградской области в сети

    В интернете появилось видео, где якобы губернатор Калининградской области комментирует вакцинацию местных врачей от холеры и делает провокационные заявления в адрес Польши и стран Балтии. Однако оказалось, что это видео не настоящее, а создано с помощью нейросети.

    Пресс-служба правительства области также опровергла подлинность видео. Этот фейк был сделан на основе выступления губернатора от 7 февраля, где он говорил о энергосистеме прибалтийских стран.

    Власти региона назвали слухи о холере провокацией. По их мнению, это сделано специально перед мероприятиями в честь Дня Победы, чтобы вызвать панику.

    Пресс-служба отметила, что голос в видео не похож на голос губернатора, а качество ролика очень низкое. Это подтвердила пресс-секретарь главы региона.

    Этот инцидент стал еще одним фейком с участием глав российских регионов. На данный момент уже известно 61 поддельное видео политического характера.

  • Увеличивается число политических deepfake-видео в России

    Увеличивается число политических deepfake-видео в России

    Согласно Global Fact-Checking Network, в начале 2025 года число политических дипфейков в России выросло на 65% по сравнению с 2024 годом. Главными героями таких видео чаще всего становятся губернаторы.

    За 2024 год Global Fact-Checking Network зафиксировала 61 уникальный дипфейк и 2,3 тыс. его копий, что в 3,6 раза больше, чем в 2023 году. В 2025 году 89% всех дипфейков были о политике, силовых структурах и вопросах безопасности. Чаще всего подделки были с участием губернаторов. Например, ролик с губернатором Кемеровской области Ильей Середюком набрал около 240 тыс. просмотров.

    По мнению экспертов, дипфейки становятся все более популярными из-за тренда на новую искренность, который заставляет политиков вести себя необычно. 54% респондентов поддерживают государственное регулирование дипфейков из-за угрозы для доверчивых граждан без навыков критического мышления.

    В целом, дипфейки становятся все более заметным инструментом манипулирования общественным мнением. Однако пока более популярны мошеннические сценарии использования дипфейков, особенно с использованием нейросетей для создания фальшивых аудио- и видеоматериалов.

  • Проект Say No To Disinfo: Искусственный интеллект против банков

    Проект Say No To Disinfo: Искусственный интеллект против банков

    Исследователи из Великобритании и специалисты по коммуникациям провели эксперимент, чтобы показать, как искусственный интеллект может использоваться для распространения ложной информации и вызывать финансовые проблемы. Они создали ситуацию, где распространение слухов могло заставить людей снимать деньги со счетов банков.

    В эксперименте 500 клиентов одного британского банка были подвергнуты информационному воздействию. Сообщения, созданные компьютером, играли на страхах и убеждениях людей, убеждая их, что их сбережения в опасности. Ложная информация распространялась через социальную сеть X с помощью постов и мемов.

    Результаты были пугающими: 61% участников, узнав о лжи, выразили желание снять деньги со счета. Из них 33% были уверены в своем решении, а еще 27% считали это вероятным. Исследователи выяснили, что всего £10, потраченные на создание ложной информации, могут привести к переводу £1 млн.

    Ученые предупреждают, что такие атаки могут быть проведены быстро и с минимальными затратами, представляя серьезную угрозу для финансовой системы. Многие банки не готовы к таким угрозам и реагируют на них слишком поздно.

    Эксперты советуют финансовым учреждениям уделять больше внимания мониторингу доверия клиентов, выявлению потенциальных злоумышленников и проведению стратегических симуляций для подготовки к подобным атакам. Они призывают разрабатывать меры защиты, чтобы противостоять распространению ложной информации, созданной искусственным интеллектом, и уменьшить риски финансовых кризисов, вызванных манипуляциями в интернете.

  • Америка отключает защиту выборов: что дальше?

    Америка отключает защиту выборов: что дальше?

    Агентство CISA временно приостановило работу по обеспечению безопасности выборов в США и начало пересмотр всех программ, реализованных за последние 8 лет. Это связано с изменениями в политике агентства из-за давления администрации Дональда Трампа, который утверждает, что на выборах были фальсификации и требует цензуры в интернете.

    Проводится проверка всех мер безопасности выборов и борьбы с дезинформацией с 2017 года. CISA также временно прекратило финансирование центра обмена информацией об избирательной инфраструктуре и отправило сотрудников, занимавшихся борьбой с дезинформацией, в отпуск.

    Эти изменения связаны с указом Трампа о прекращении цензуры в федеральном правительстве. Республиканцы обвиняли CISA в сотрудничестве с технологическими компаниями при выявлении дезинформации. CISA сократило контакты с платформами из-за этой критики.

    Агентство проведет аудит своей работы и подготовит отчет для Белого дома к 6 марта. Целью пересмотра является упрощение работы с местными властями и согласование деятельности CISA со своей основной миссией. Пока неизвестно, был ли приказ о проверке из Белого дома или это решение агентства.

  • Скарлетт Йоханссон требует защиты от искусственного интеллекта

    Скарлетт Йоханссон требует защиты от искусственного интеллекта

    Актриса Скарлетт Йоханссон хочет, чтобы правительство США приняло закон против использования искусственного интеллекта. Она обеспокоена появлением в интернете фальшивых видео, на которых она и другие еврейские знаменитости показаны в футболках с анти-семитскими символами. Йоханссон считает, что подобные видео могут использоваться для распространения лжи и ненависти.
    Она также выразила свою обеспокоенность поведением рэпера Ye, который размещал анти-семитские комментарии и продавал футболки со свастикой на своем сайте. Йоханссон подчеркнула, что проблема искусственного интеллекта и его злоупотребления является серьезной угрозой для общества. Она призвала законодателей принять необходимые меры для предотвращения подобных ситуаций и защиты граждан.