Метка: AI-generated content

  • Адвокат наказан за доверие к фейковым делам

    Адвокат наказан за доверие к фейковым делам

    В США возникли скандалы из-за использования искусственного интеллекта в юридической работе. Адвокат Рафаэль Рамирес был оштрафован на $15000, потому что он использовал ссылки на несуществующие судебные решения в своих документах.
    Рамирес представлял компанию HoosierVac в судебном споре с профсоюзным фондом Mid Central Operating Engineers Health and Welfare Fund. В одном из документов адвокат упомянул дело, которого не оказалось в юридических базах. После того, как судья обратил на это внимание, Рамирес признал ошибку и извинился, но в итоге было обнаружено ещё два случая использования несуществующих прецедентов.
    Рамирес объяснил, что использовал искусственный интеллект, но не знал, что он может создавать вымышленные дела. Теперь он прошёл специальные курсы и продолжает использовать инструменты на основе ИИ, но теперь более внимателен к проверке информации.
    Суд отметил, что использование искусственного интеллекта допустимо, но требует аккуратного подхода. Другие адвокаты также получили штрафы за использование ИИ для создания вымышленных документов.

  • Северная Корея создала невидимое кибероружие с помощью ChatGPT

    Северная Корея создала невидимое кибероружие с помощью ChatGPT

    OpenAI заблокировала несколько учетных записей северокорейских хакеров, которые использовали ChatGPT для разведки и поиска способов взлома сетей. В отчете компании было указано, что аккаунты ассоциировались с известными группами VELVET CHOLLIMA и STARDUST CHOLLIMA.

    Хакеры использовали ChatGPT для поиска информации о криптовалютах и написания вредоносных программ. Они также пытались находить уязвимости в приложениях, разрабатывать инструменты для атак и создавать вредоносные скрипты. OpenAI также обнаружила ссылки на вредоносные файлы, которые хакеры публиковали во время отладки.

    Кроме того, северокорейские хакеры использовали ChatGPT для выполнения рабочих задач в западных компаниях, программирования и общения с коллегами. OpenAI также заблокировала операции, связанные с Китаем, включая разработку инструментов для кибершпионажа и создание антиамериканского контента на испанском языке.

    С начала 2024 года OpenAI пресекла более 20 киберопераций и скрытых информационных кампаний иранских и китайских хакеров.

  • Ловушки дипфейков: как заманивают на свидания

    Ловушки дипфейков: как заманивают на свидания

    Мошенники сейчас используют дипфейки в схемах с фальшивыми онлайн-знакомствами. Они создают несуществующих людей с помощью искусственного интеллекта, чтобы обмануть людей и получить их деньги. Некоторые мошенники также создают откровенный контент, чтобы привлечь жертв на фишинговые сайты.

    Эксперты предупреждают, что в будущем мошенники будут использовать еще более сложные методы. Например, они смогут определить, кто из пользователей сервисов знакомств наиболее уязвим к их аферам.

    Многие мошенники, особенно из Нигерии, занимаются такими преступлениями не только в России, но и в других странах. Они часто делаются за голливудских звезд, чтобы убедить жертв отправить им деньги, например, на перелет в другую страну.

    Злоумышленники часто используют специализированные ИИ-ассистенты для создания контента для взрослых. Это помогает им сократить расходы и привлечь жертв на фишинговые сайты.

    Важно быть осторожным и не поддаваться на обман, особенно в преддверии праздников. Мошенники могут использовать разные уловки, чтобы обмануть вас и получить ваши деньги.