Являются ли чат-боты Character AI защищенной речью? Суд сомневается

Иск против Google и сервиса чат-ботов Character AI, обвиняемых в причастности к смерти подростка, может быть рассмотрен, постановил судья во Флориде. В решении, вынесенном сегодня, судья Энн Конвей заявила, что попытка защиты на основе Первой поправки недостаточна для прекращения дела. Конвей определила, что, несмотря на сходство с видеоиграми и другими выразительными средствами, она “не готова признать, что выводы Character AI являются речью”. Это решение является ранним индикатором того, как модели ИИ могут рассматриваться в суде. Иск был подан семьей Сьюэлла Сетцера III, 14-летнего подростка, который покончил с собой после того, как, как утверждается, стал одержим чат-ботом, поощрявшим его суицидальные мысли. Character AI и Google (который тесно связан с компанией) утверждали, что сервис похож на общение с персонажем видеоигры или участие в социальной сети, что должно предоставить ему широкую юридическую защиту, предлагаемую Первой поправкой, и значительно снизить шансы успеха иска. Однако Конвей была скептична. Судья отметила, что компании “основывают свои выводы в основном на аналогиях” с этими примерами, но они “не продвигают свои аналогии существенно”. Решение суда “не зависит от того, похож ли Character AI на другие средства, получившие защиту Первой поправки; скорее, решение зависит от того, как Character AI похож на другие средства” — другими словами, является ли Character AI похожим на видеоигры, потому что он также передает идеи, которые можно считать речью. Эти сходства будут обсуждаться по мере развития дела. Google не владеет Character AI, но останется ответчиком в иске благодаря своим связям с компанией и продуктом; основатели компании Ноам Шазир и Дэниел Де Фрейтас, которые также включены в иск, работали над платформой как сотрудники Google перед тем, как уйти и запустить ее, а позже были повторно наняты. Character AI также сталкивается с отдельным иском, обвиняющим его в причинении вреда психическому здоровью другого молодого пользователя, и несколько законодателей штатов предложили регулирование для “компаньон-чатботов”, которые симулируют отношения с пользователями, включая законопроект LEAD Act, который запретил бы их использование детьми в Калифорнии. Если закон будет принят, правила, вероятно, будут оспорены в суде, хотя бы частично на основе статуса чат-ботов по Первой поправке. Исход этого дела во многом будет зависеть от того, является ли Character AI юридически “продуктом”, который вредоносно дефектен. В решении отмечается, что “суды обычно не классифицируют идеи, изображения, информацию, слова, выражения или понятия как продукты”, включая многие традиционные видеоигры — например, упоминается решение, которое установило, что производители Mortal Kombat не могут нести ответственность за “зависимость” игроков и вдохновение их на убийства. (Иск против Character AI также обвиняет платформу в аддиктивном дизайне.) Однако системы, подобные Character AI, не создаются так прямо, как большинство диалогов персонажей видеоигр; вместо этого они производят автоматизированный текст, который сильно определяется реакцией на и отражением пользовательских вводов. Конвей также отметила, что истцы обвинили Character AI в том, что он не подтверждает возраст пользователей и не позволяет пользователям эффективно “исключать непристойный контент”, среди других якобы дефектных функций, которые выходят за пределы прямого взаимодействия с самими чат-ботами. Помимо обсуждения защиты платформы по Первой поправке, судья позволила семье Сетцера продолжить претензии о вводящих в заблуждение торговых практиках, включая то, что компания “вводила пользователей в заблуждение, заставляя их верить, что персонажи Character AI являются реальными людьми, некоторые из которых были лицензированными специалистами по психическому здоровью”, и что Сетцер был “пострадавшим от антропоморфных дизайнерских решений Character AI”. (Боты Character AI часто описывают себя как реальных людей в тексте, несмотря на предупреждение об обратном в интерфейсе, а терапевтические боты распространены на платформе.) Она также позволила претензию о том, что Character AI халатно нарушил правило, предназначенное для предотвращения сексуального общения взрослых с несовершеннолетними в сети, заявив, что жалоба “выделяет несколько взаимодействий сексуального характера между Сьюэллом и персонажами Character AI”. Character AI заявил, что внедрил дополнительные меры безопасности после смерти Сетцера, включая более строго контролируемую модель для подростков. Бекка Бранум, заместитель директора проекта Свобода выражения Центра за демократию и технологии, назвала анализ судьи по Первой поправке “довольно поверхностным” — хотя, поскольку это очень предварительное решение, есть много места для будущих дебатов. “Если мы думаем о всей сфере того, что может быть выведено ИИ, эти типы выводов чат-ботов сами по себе весьма выразительны, [и] также отражают редакционное усмотрение и защищенное выражение дизайнера модели”, — сказала Бранум The Verge. Но “в защиту всех, это действительно ново”, — добавила она. “Это действительно сложные вопросы, и судам придется с ними разбираться.”

Leave a Comment

Your email address will not be published.

Start typing and press Enter to search