Эксперты по кибербезопасности обнаружили два вредоносных примера машинного обучения на платформе Hugging Face. Они использовали специальный метод скрытия через поврежденные файлы Pickle. Это помогало им обходить защитные механизмы, предназначенные для обнаружения вредоносных моделей.
Исследователи из компании ReversingLabs сообщили, что файлы Pickle, извлеченные из архивов PyTorch, содержали вредоносный Python-код в самом начале. В обоих случаях вредоносная нагрузка…
