Метка: DEF CON 32

  • Адепт социальной инженерии попал в деле с ножом

    Адепт социальной инженерии попал в деле с ножом

    Известный участник конференции DEF CON Кристофер Хэднеги был исключен из конференции в 2022 году после обвинений в домогательствах. Он подал в суд на организацию DEF CON и её основателя Джеффа Мосса, утверждая, что обвинения ложные. Суд отклонил большинство его требований, но иск о клевете остался в силе.

    Бывшие коллеги Хэднеги рассказали о его неподобающем поведении на работе и на конференции. Они сообщили, что он делал неуместные комментарии о внешности коллег, вспыльчиво проявлял гнев и унижал сотрудников. Он также якобы пытался саботировать карьеру бывшей коллеги Макси Рейнольдс после ухода из компании.

    DEF CON утверждает, что Рейнольдс сообщила о поведении Хэднеги руководству ещё в 2021 году. Основатель конференции Джефф Мосс заявил, что готов защищать организацию в суде и что обвинения основаны на документах и показаниях свидетелей. Адвокаты Хэднеги пока не комментируют ситуацию.

  • Необходимость пересмотра Red Teaming для искусственного интеллекта

    Необходимость пересмотра Red Teaming для искусственного интеллекта

    На мероприятии DEF CON 32 провели исследования по проверке безопасности искусственного интеллекта. Они показали, что текущий метод оценки не дает точной картины. Эксперты предлагают создать систему, подобную CVE, которая учитывает цель использования анализируемых объектов.

    На мероприятии приняли участие около 500 добровольцев с опытом аудита больших языковых моделей. За выявление недочетов им были выплачены премии на сумму $7850.

    Организаторы пришли к выводу, что метод Red Teaming для проверки ИИ нужно улучшить. Проблемой является недостаточная документация по языковым моделям, которая также различается по целям использования.

    Без учета цели и ограничений модели результаты проверок могут быть ошибочными. Недостаток общих критериев оценки может привести к противоречивым выводам.

    Рост и развитие искусственного интеллекта создают новые риски, но пока нет ясного понимания того, как их тестировать и обеспечивать защиту.

    Эксперты считают, что обеспечение безопасности языковых моделей — это постоянный процесс. Эти системы могут ошибаться, быть предвзятыми из-за неправильного обучения и уязвимыми к атакам. Их невозможно защитить от взлома, но можно сделать его более сложным и уменьшить последствия.

    Организаторы Generative Red Team призывают ИИ- и ИБ-сообщества работать вместе для решения проблем. В противном случае техническая революция может привести к появлению ненадежных ИИ-инструментов, как, например, DeepSeek.