Skip to content Skip to sidebar Skip to footer

Peer Review: Chatgpt как инструмент международного шпионажа

Компания OpenAI заблокировала некоторые аккаунты, которые использовали ChatGPT для создания опасного инструмента слежки с помощью искусственного интеллекта. Этот инструмент был разработан в Китае и использовал модель Meta Llama.

Эти аккаунты использовали ChatGPT для анализа данных из социальных сетей и создания системы, которая собирала информацию о протестах против Китая. Затем эта информация передавалась китайским властям. Эта кампания была названа Peer Review из-за того, что она продвигала и тестировала технологии слежки.

OpenAI также обнаружила другие сети, которые использовали ChatGPT для незаконных действий:

1. Группа, связанная с Северной Кореей, создавала поддельные резюме и письма о приёме на работу, чтобы обмануть IT-компании.
2. Китайская сеть распространяла антиамериканскую пропаганду в Латинской Америке.
3. Группа из Камбоджи создавала мошеннические схемы с инвестициями и романтическими аферами.
4. Сеть из пяти аккаунтов поддерживала Палестину, ХАМАС и Иран, выступая против США и Израиля.
5. Группы из Северной Кореи использовали ChatGPT для изучения кибератак и брутфорса RDP.
6. Сеть влияла на выборы в Гане через англоязычный сайт.

Эти примеры показывают, что искусственный интеллект стал мощным инструментом для кибератак и манипуляции общественным мнением. OpenAI призывает к сотрудничеству ИИ-компаний, соцсетей и исследователей для борьбы с этими угрозами.

© KiberSec.ru – 04.04.2025, обновлено 04.04.2025
Перепечатка материалов сайта возможна только с разрешения администрации KiberSec.ru.