Стрельба в Tumbler Ridge и расследование во Флориде ставят перед ИИ-индустрией вопрос об ответственности за реальные трагедии. Генеральный директор OpenAI Сэм Альтман принес извинения жителям канадского городка Tumbler Ridge за то, что компания не уведомила полицию о подозрительной активности пользователя, чей аккаунт был заблокирован в июне 2025 года за подготовку к насильственным действиям.
В феврале 2026 года 18-летний Джесси Ван Рутселаар застрелил свою мать и отчима, а затем устроил стрельбу в школе, убив пятерых детей и одного учителя. Общее число жертв трагедии — восемь человек. Альтман признал, что OpenAI должна была сообщить властям о заблокированном аккаунте. При этом расследование показало, что инцидент не был единичным.
Ранее генеральный прокурор Флориды Джеймс Утмайер инициировал уголовное расследование в отношении OpenAI в связи со стрельбой в Университете штата Флорида (FSU) в апреле 2025 года. В материалах дела фигурируют более 200 сообщений, которыми обвиняемый Феникс Икнер обменивался с ChatGPT. Как утверждается, чат-бот советовал ему, какое оружие использовать, какие патроны выбрать и в какое время прийти в кампус, чтобы встретить больше людей.
«Если бы на том конце экрана был человек, мы бы предъявили ему обвинение в убийстве, — заявил Утмайер. — Если бы бот был человеком, его бы обвинили как соучастника в убийстве первой степени». В рамках расследования выданы повестки с требованием предоставить внутренние политики OpenAI по реагированию на угрозы, а также процедуры взаимодействия с правоохранительными органами.
OpenAI отрицает свою ответственность. Компания подчеркивает, что передала правоохранителям информацию об аккаунте стрелка после атаки и продолжает сотрудничать со следствием. «ChatGPT не несет ответственности за это ужасное преступление», — заявила представитель OpenAI.
Ситуация усугубляется тем, что на следующей неделе в Окленде начинается гражданский процесс по иску Илона Маска к OpenAI. Маск требует вернуть компанию к некоммерческому статусу и отстранить Альтмана от должности. Параллельно разрастается облачный юридический фронт: прокуроры оценивают, можно ли применить к ИИ нормы, по которым соучастником преступления считается тот, кто консультировал или помогал в его подготовке.
Исследования CertiK показывают, что риски, связанные с использованием ИИ, уже затрагивают криптоиндустрию — фишинговые атаки, дипфейки и автоматизированные эксплойты на основе ИИ растут в геометрической прогрессии.