Skip to content Skip to sidebar Skip to footer

ИИ-моделям передали десятки тысяч рабочих паролей

Исследователи обнаружили, что в наборах данных для обучения больших языковых моделей есть около 12 000 активных учетных записей, которые позволяют успешно пройти проверку подлинности. Это показывает, что использование строгих ключей и паролей может быть опасно, так как они могут попасть в руки злоумышленников. Также эти данные могут способствовать распространению небезопасных способов программирования. Компания Truffle Security загрузила…

Read More

OpenAI представила GPT-4.5: Искусственный интеллект приближается к человеку

Компания OpenAI представила свою новую языковую модель GPT-4.5. Она считается одной из самых продвинутых на сегодняшний день, хотя и довольно дорогой. Модель умеет многое: она хорошо знает много информации, понимает эмоции и лучше следует инструкциям пользователей. Это делает её очень полезной для написания текстов, программирования и решения задач. Генеральный директор OpenAI Сэм Альтман сказал, что GPT-4.5…

Read More

Claude 3.7 Sonnet и Claude Code: идеальный набор для программистов

Компания Anthropic выпустила обновление своей языковой модели Claude 3.7 Sonnet. Теперь пользователи могут быстро получить ответы на вопросы и провести более глубокий анализ. Они могут также управлять временем, которое модель тратит на анализ, и устанавливать лимиты на вычисления через API. Одним из главных улучшений стало добавление инструмента Claude Code, который помогает автоматизировать разработку. Он способен анализировать…

Read More

Мастера тьмы: манипулятивная атака на LLM

Ученые из Университета Сент-Луиса показали, как можно взломать большие языковые модели (LLM), чтобы изменить работу нейронных сетей. Они создали атаку под названием DarkMind, которая использует уязвимости в моделях, таких как ChatGPT, GPT-4, O1 и LLaMA-3. DarkMind добавляет скрытые сигналы в приложения, использующие языковые модели, чтобы атака была незаметной. Это сложно обнаружить даже в приложениях с большим…

Read More