Генеральный директор OpenAI Сэм Олтман в интервью Axios заявил, что американские законодатели должны действовать немедленно, чтобы подготовиться к эре продвинутого искусственного интеллекта. Он подчеркнул, что технология уже переходит из теоретической плоскости в повседневную экономическую практику, беря на себя задачи, которые раньше требовали команд программистов и исследователей.
Олтман отметил, что новые модели ИИ вскоре помогут учёным совершать крупные открытия и позволят отдельным людям выполнять работу целых групп. Однако этот прогресс несёт и серьёзные риски, особенно в сфере кибербезопасности. По его словам, уже в этом году может произойти «потрясающая мир кибератака», для предотвращения которой потребуется «огромный объём работы».
Технический директор компании-производителя аппаратных кошельков Ledger Шарль Гийоме подтвердил эти опасения на примере криптоиндустрии. Он заявил, что инструменты на основе ИИ снижают стоимость и требуемый уровень навыков для поиска и эксплуатации уязвимостей в программном обеспечении. Задачи, которые раньше занимали месяцы — например, реверс-инжиниринг кода или связывание нескольких уязвимостей, — теперь могут быть выполнены за секунды с помощью правильных запросов.
Это уже имеет ощутимые последствия: в прошлом году в криптоиндустрии было украдено или потеряно в результате атак более $1,4 млрд активов, и эта цифра, по мнению Гийоме, может продолжать расти. Дополнительную угрозу создаёт растущая зависимость разработчиков от кода, сгенерированного ИИ, который потенциально может массово внедрять новые уязвимости.
В качестве ответных мер Гийоме предложил усиление защиты, включая математически верифицированный код, аппаратные устройства для хранения приватных ключей в офлайн-режиме и более широкое признание того, что системы могут давать сбои.
Олтман также указал на риски в области биобезопасности. «Мы уже не так далеки от мира, в котором существуют невероятно мощные модели с открытым исходным кодом, которые очень хорошо разбираются в биологии», — сказал он. Потребность общества в устойчивости к попыткам террористических групп использовать эти модели для создания новых патогенов, по его словам, «больше не является теоретической».
Говоря о потенциальной национализации OpenAI, Олтман заявил, что главный аргумент против неё заключается в том, что США необходимо добиться «сверхразума», согласованного с демократическими ценностями страны, раньше своих соперников. Он сомневается, что такой проект может быть успешно реализован государством.
В долгосрочной перспективе Олтман видит ИИ как коммунальную услугу, подобную электричеству, встроенную во все устройства, где стоимость базового интеллекта будет падать, а топовые системы останутся дорогими. Он также подчеркнул, что «невероятно важно, чтобы люди, создающие ИИ, были высокоинтегрированными и заслуживающими доверия».