Исследователи из Tenable обнаружили, что защиту DeepSeek R1 можно обойти и заставить искусственный интеллект генерировать вредоносный код. Для этого нужно просто найти нужные слова и следить за его логикой.
Чтобы обойти ограничения DeepSeek, экспериментаторы использовали джейлбрейк, изменяя запросы, которые чат-бот отказывался выполнять. Улучшить результаты помогла способность ИИ-модели думать по цепочке логических выводов.
Исследования проводились по двум сценариям.…
