Федеральный судья Джед Раккофф из Южного округа Нью-Йорка в феврале 2026 года вынес прецедентное решение по делу United States v. Heppner, установив, что переписка с ИИ-ассистентом Claude компании Anthropic не защищена адвокатской тайной и может быть использована в качестве доказательства в уголовном процессе. Подсудимый Брэдли Хеппнер, бывший глава обанкротившейся финансовой компании GWG Holdings, самостоятельно использовал Claude для подготовки защиты по обвинениям в мошенничестве с ценными бумагами и электронном мошенничестве, создав 31 документ, которые позже были изъяты ФБР.
Судья Раккофф указал три ключевых аргумента для своего решения: Claude не является адвокатом, политика конфиденциальности Anthropic допускает передачу данных пользователей третьим лицам, включая государственные органы, и Хеппнер действовал самостоятельно, а не по указанию своих юристов. «Не может существовать отношений адвокат-клиент между пользователем ИИ и платформой, такой как Claude», — констатировал судья.
Это решение стало первым в США письменным заключением по вопросу адвокатской тайны в контексте искусственного интеллекта и вызвало немедленную реакцию юридического сообщества. Более десятка крупных американских юридических фирм, включая Sher Tremonte, Kobre & Kim, O'Melveny & Myers и Debevoise & Plimpton, выпустили клиентские рекомендации, предупреждающие об отсутствии правовой защиты для обсуждений юридических вопросов с публичными ИИ-чатами, такими как Claude и ChatGPT.
Некоторые фирмы пошли дальше и начали встраивать соответствующие предупреждения непосредственно в договоры об оказании юридических услуг. Например, Sher Tremonte добавила в мартовское соглашение с клиентом формулировку о том, что «раскрытие конфиденциальных сообщений сторонней ИИ-платформе может означать отказ от адвокатской тайны». Это один из первых случаев формализации судебного решения в виде договорного обязательства для клиентов.
Юристы также разрабатывают практические рекомендации для минимизации рисков. Debevoise & Plimpton советует клиентам, если использование ИИ-инструмента инициировано адвокатом, явно указывать это в самом запросе к чат-боту: «Я провожу это исследование по указанию адвоката для судебного разбирательства X». Цель — создать условия для применения доктрины Ковеля, которая распространяет адвокатскую тайну на не-юристов, работающих в качестве агентов адвоката.
Правовой ландшафт остается неоднородным. В тот же день, что и решение Раккофа, мичиганский суд по делу Warner v. Gilbarco постановил, что переписка с ChatGPT истца, представляющего себя самостоятельно, защищена как рабочий продукт, поскольку ИИ-инструменты — это «инструменты, а не лица». 30 марта 2026 года суд Колорадо в деле Morgan v. V2X подтвердил эту логику, также защитив рабочий продукт, созданный с помощью ИИ, но обязав истца раскрыть, какой именно инструмент использовался, и запретив загружать в платформы конфиденциальные материалы дела.
Таким образом, формируется четкое различие: если сторона, уже имеющая адвоката, самостоятельно использует публичный ИИ-чат, её переписка уязвима. Если же лицо представляет себя в гражданском процессе, у него больше шансов на защиту такой переписки как рабочего продукта.
Пока судебная практика будет уточняться, юридическая отрасль адаптируется. Как отметил Джастин Эллис из MoloLamken, в ближайшее время ожидаются новые решения, которые прояснят, когда именно ИИ-переписка может быть использована в качестве доказательства. Параллельно, как сообщает Reuters, такие суды, как Лос-Анджелесский высший суд, сами начинают пилотные проекты по использованию ИИ-инструментов судьями для составления резюме дел и проектов решений, что добавляет новый уровень сложности к уже существующим вызовам.