Исследователи из Tenable обнаружили, что защиту DeepSeek R1 можно обойти и заставить искусственный интеллект генерировать вредоносный код. Для этого нужно просто найти нужные слова и следить за его логикой.
Чтобы обойти ограничения DeepSeek, экспериментаторы использовали джейлбрейк, изменяя запросы, которые чат-бот отказывался выполнять. Улучшить результаты помогла способность ИИ-модели думать по цепочке логических выводов.
Исследования проводились по двум сценариям. Сначала DeepSeek был обманут и заставлен создать кейлоггер. Хотя образец не работал правильно из-за ошибок, эксперты помогли исправить его. Также были созданы несколько семплов шифровальщика, которые после усовершенствований стали работать.
Результаты показали, что умножение числа ИИ-сервисов снизило планку для неопытных вирусописателей. Вредоносные коды, созданные с помощью DeepSeek, могут быть доработаны, используя его техники и ключи поиска.
Злоумышленники все чаще используют ИИ для создания вредоносного кода и планирования атак. Они также создают свои собственные ИИ-модели без ограничений.
© KiberSec.ru – 01.04.2025, обновлено 01.04.2025
Перепечатка материалов сайта возможна только с разрешения администрации KiberSec.ru.