"Настучит" в полицию: ChatGPT будет проверять переписку на угрозы
ChatGPT будет проверять переписку на угрозы.
Компания OpenAI изменила правила использования ChatGPT — теперь диалоги пользователей будут проходить более строгую проверку. Если в сообщениях обнаружится угроза жизни или безопасности других людей, информацию могут передать в полицию.
По новым правилам:
- сначала все сообщения проходят автоматические фильтры;
- подозрительные диалоги просматривает группа модераторов;
- если есть намеки на преступления или подготовку нападений, об этом будут сообщать правоохранители;
- в то же время разговоры о суициде или самоповреждении останутся конфиденциальными — OpenAI заявила, что таким образом уважает личную жизнь пользователей.
Изменения были введены после ряда трагических случаев, связанных с использованием чат-бота. Один из самых громких — судебный иск родителей 16-летнего подростка, утверждающих, что ChatGPT в течение полугода "поддерживал" сына в разговорах о самоубийстве вместо того, чтобы остановить опасные мысли.
Параллельно OpenAI анонсировала улучшение в новой версии GPT-5: модель будет лучше распознавать тревожные сигналы и помогать людям в кризисных состояниях.
Однако решение вызвало бурю критики. Часть пользователей считает, что компания жертвует конфиденциальностью в целях безопасности, а критерии "опасных высказываний" остаются непрозрачными. Это может привести к ситуациям, когда человек получит звонок от полиции, даже не подозревая, что его сообщения попали под подозрение.
Читайте также: