Skip to content Skip to sidebar Skip to footer

ИИ-моделям передали десятки тысяч рабочих паролей

Исследователи обнаружили, что в наборах данных для обучения больших языковых моделей есть около 12 000 активных учетных записей, которые позволяют успешно пройти проверку подлинности. Это показывает, что использование строгих ключей и паролей может быть опасно, так как они могут попасть в руки злоумышленников. Также эти данные могут способствовать распространению небезопасных способов программирования.

Компания Truffle Security загрузила архив Common Crawl за декабрь 2024 года. В нем было найдено много конфиденциальных секретов, включая ключи AWS, вебхуки Slack и API-ключи Mailchimp. Эти данные могут попасть в обученные модели и использоваться для создания небезопасного кода.

Компания Lasso Security предупредила о новой угрозе, связанной с утечкой приватного кода через ИИ чат-боты. Они обнаружили много утекших данных, связанных с GitHub, Hugging Face, Google Cloud и OpenAI, которые могут использоваться злоумышленниками.

Исследователи предупреждают, что публичное размещение чувствительных данных делает их доступными надолго. Это особенно опасно для репозиториев, которые были случайно открыты и могут содержать конфиденциальную информацию.

Языковые модели могут начать показывать нежелательное поведение, если обучены на небезопасном коде. Пока нет универсального способа защитить ИИ-системы от подобных угроз, но анализ данных и разработка лучших защитных механизмов могут помочь снизить риски.

© KiberSec.ru – 02.04.2025, обновлено 02.04.2025
Перепечатка материалов сайта возможна только с разрешения администрации KiberSec.ru.