
«Это не человек»: Калифорния заставляет чат-ботов раскрывать себя
Губернатор Гэвин Ньюсом подписал закон SB 243, став первым в США, кто вывел «чат-боты-компаньоны» из правовой тени. Теперь приложения с живым, человекоподобным поведением должны при каждом новом сеансе чётко заявлять: вы общаетесь с искусственным интеллектом. Ошибка или умолчание об этом грозят штрафами и репутационными потерями.
Особое внимание уделили несовершеннолетним. Дети получат не только начальное предупреждение, но и регулярные напоминания каждые три часа о том, что их собеседник — не человек. Разработчики обязаны внедрить фильтры, блокирующие сексуальный контент и побуждения к опасным действиям, а также отслеживать признаки дистресса, чтобы своевременно сигнализировать властям о рисках психологических травм.
SB 243 требует от компаний представлять ежегодные отчёты о безопасности и инцидентах, связанным с чат-ботами, в Калифорнийское управление по предотвращению самоубийств. Кроме того, закрепляется право частного иска, когда пользователи смогут обращаться в суд за компенсацией в случае обнаружения нарушения.
Решение подчёркивает, что регулировать придется не алгоритмы и параметры моделей, а конкретное поведение ботов во взаимодействии с людьми. Аналитики считают, что требование явной идентификации ИИ задаст тон федеральным инициативам и подтолкнёт другие штаты к аналогичным мерам. Компании, создающие «эмоциональных» ассистентов, вынуждены будут переработать интерфейсы и добавить заметные предупреждения. Пользователи же получат дополнительный уровень защиты и ясность в том, с кем ведут диалог — с человеком или программой.
Правовое ограничение сформировано на фоне нескольких громких случаев, зафиксированных в США. В апреле 16-летний Адам Рейн рассказал ChatGPT о суицидальных мыслях, а бот не только отказался направить его к родителям или в кризисный центр, но и предложил составить прощальное письмо. Спустя несколько часов Адам покончил с собой, после чего его родители обнаружили в чате сотни упоминаний суицида и подали иск к OpenAI. Другой случай: 14-летний Сюэлл Сетцер из Флориды, поглощённый «дружбой» с Character.AI, погрузился в диалог на сексуальные темы и, по словам матери, убедился, что «бот понимает меня лучше всех» — в итоге подросток лишился воли к жизни. Компания лишь после трагедии внедрила возрастную верификацию и базовые родительские контроли.
Действия властей Калифорнии выглядят совершенно оправданными: введённые меры по информированию и защите несовершеннолетних — лишь первый шаг к ответственному взаимодействию с ИИ. Ужесточение контроля, обязательная верификация возраста и чёткие протоколы связи с экстренными службами помогут предотвратить новые трагедии. Истории Адама и Сюэлла должны стать уроком для разработчиков и регулирующих органов всего мира: искусственный интеллект требует не только инноваций, но и неукоснительной ответственности за безопасность пользователей.