Компания OpenAI заблокировала некоторые аккаунты, которые использовали ChatGPT для создания опасного инструмента слежки с помощью искусственного интеллекта. Этот инструмент был разработан в Китае и использовал модель Meta Llama.
Эти аккаунты использовали ChatGPT для анализа данных из социальных сетей и создания системы, которая собирала информацию о протестах против Китая. Затем эта информация передавалась китайским властям. Эта кампания была названа Peer Review из-за того, что она продвигала и тестировала технологии слежки.
OpenAI также обнаружила другие сети, которые использовали ChatGPT для незаконных действий:
1. Группа, связанная с Северной Кореей, создавала поддельные резюме и письма о приёме на работу, чтобы обмануть IT-компании.
2. Китайская сеть распространяла антиамериканскую пропаганду в Латинской Америке.
3. Группа из Камбоджи создавала мошеннические схемы с инвестициями и романтическими аферами.
4. Сеть из пяти аккаунтов поддерживала Палестину, ХАМАС и Иран, выступая против США и Израиля.
5. Группы из Северной Кореи использовали ChatGPT для изучения кибератак и брутфорса RDP.
6. Сеть влияла на выборы в Гане через англоязычный сайт.
Эти примеры показывают, что искусственный интеллект стал мощным инструментом для кибератак и манипуляции общественным мнением. OpenAI призывает к сотрудничеству ИИ-компаний, соцсетей и исследователей для борьбы с этими угрозами.
© KiberSec.ru – 04.04.2025, обновлено 04.04.2025
Перепечатка материалов сайта возможна только с разрешения администрации KiberSec.ru.