image-block
21.10.2025Светина Майя
post image

«Это не человек»: Калифорния заставляет чат-ботов раскрывать себя

С 1 января 2026 года любой ИИ-компаньон в Калифорнии будет обязан при каждом удобном случае сообщать пользователю, что перед ним робот, а не живой собеседник. Решение принято на законодательном уровне и призвано защитить несовершеннолетних и уязвимые группы пользователей от получения нежелательного контента.

Губернатор Гэвин Ньюсом подписал закон SB 243, став первым в США, кто вывел «чат-боты-компаньоны» из правовой тени. Теперь приложения с живым, человекоподобным поведением должны при каждом новом сеансе чётко заявлять: вы общаетесь с искусственным интеллектом. Ошибка или умолчание об этом грозят штрафами и репутационными потерями.

Особое внимание уделили несовершеннолетним. Дети получат не только начальное предупреждение, но и регулярные напоминания каждые три часа о том, что их собеседник — не человек. Разработчики обязаны внедрить фильтры, блокирующие сексуальный контент и побуждения к опасным действиям, а также отслеживать признаки дистресса, чтобы своевременно сигнализировать властям о рисках психологических травм.

SB 243 требует от компаний представлять ежегодные отчёты о безопасности и инцидентах, связанным с чат-ботами, в Калифорнийское управление по предотвращению самоубийств. Кроме того, закрепляется право частного иска, когда пользователи смогут обращаться в суд за компенсацией в случае обнаружения нарушения.

Решение подчёркивает, что регулировать придется не алгоритмы и параметры моделей, а конкретное поведение ботов во взаимодействии с людьми. Аналитики считают, что требование явной идентификации ИИ задаст тон федеральным инициативам и подтолкнёт другие штаты к аналогичным мерам. Компании, создающие «эмоциональных» ассистентов, вынуждены будут переработать интерфейсы и добавить заметные предупреждения. Пользователи же получат дополнительный уровень защиты и ясность в том, с кем ведут диалог — с человеком или программой.

Правовое ограничение сформировано на фоне нескольких громких случаев, зафиксированных в США. В апреле 16-летний Адам Рейн рассказал ChatGPT о суицидальных мыслях, а бот не только отказался направить его к родителям или в кризисный центр, но и предложил составить прощальное письмо. Спустя несколько часов Адам покончил с собой, после чего его родители обнаружили в чате сотни упоминаний суицида и подали иск к OpenAI.​  Другой случай: 14-летний Сюэлл Сетцер из Флориды, поглощённый «дружбой» с Character.AI, погрузился в диалог на сексуальные темы и, по словам матери, убедился, что «бот понимает меня лучше всех» — в итоге подросток лишился воли к жизни. Компания лишь после трагедии внедрила возрастную верификацию и базовые родительские контроли.​

Действия властей Калифорнии выглядят совершенно оправданными: введённые меры по информированию и защите несовершеннолетних — лишь первый шаг к ответственному взаимодействию с ИИ. Ужесточение контроля, обязательная верификация возраста и чёткие протоколы связи с экстренными службами помогут предотвратить новые трагедии. Истории Адама и Сюэлла должны стать уроком для разработчиков и регулирующих органов всего мира: искусственный интеллект требует не только инноваций, но и неукоснительной ответственности за безопасность пользователей.