Skip to content Skip to sidebar Skip to footer

ChatGPT показал, как семейный человек становится убийцей

Европейские правозащитники из организации noyb подали жалобу на OpenAI в норвежский регулятор. ИИ-собеседник снова дал неверную информацию о реальном человеке, утверждая, что он осужден за убийство своих сыновей и находится в тюрьме.

Житель Норвегии по имени Арве Хольмен решил проверить, что можно найти о нем в интернете, задав ChatGPT вопрос о себе. Ответ был шокирующим: ИИ выдал вымышленную историю, в которой отец утопил своих сыновей. Единственное, что было правдой, это имя, возраст детей и город, где живет Хольмен.

В соглашении с OpenAI написано, что ChatGPT может ошибаться, и важно проверять информацию. Удалить ложные данные из системы сложно. Разработчик может блокировать запросы, которые могут навредить репутации или жизни людей.

Хотя ChatGPT больше не выдает ложные сведения о Хольмене, активисты из noyb требуют изменений и штрафов за нарушение GDPR. Подобные ошибки уже случались, но до суда дело еще не доходило.

© KiberSec.ru – 02.04.2025, обновлено 02.04.2025
Перепечатка материалов сайта возможна только с разрешения администрации KiberSec.ru.