Skip to content Skip to sidebar Skip to footer

Скрытые угрозы: злоумышленники искусно внедряют код в AI модели

Эксперты по кибербезопасности обнаружили два вредоносных примера машинного обучения на платформе Hugging Face. Они использовали специальный метод скрытия через поврежденные файлы Pickle. Это помогало им обходить защитные механизмы, предназначенные для обнаружения вредоносных моделей. Исследователи из компании ReversingLabs сообщили, что файлы Pickle, извлеченные из архивов PyTorch, содержали вредоносный Python-код в самом начале. В обоих случаях вредоносная нагрузка…

Read More