Глава OpenAI предупреждает о рисках ИИ для кибербезопасности и биологии, призывает США к срочным действиям

2 часа назад 4 источника negative

Главное по теме:

  • Рост угроз ИИ для DeFi требует пересмотра подходов к безопасности смарт-контрактов и кошельков.
  • Ускорение разработки через ИИ может привести к увеличению уязвимостей в новых протоколах.
  • Фокус на аппаратные решения, такие как Ledger, может усилиться на фоне киберрисков.

Генеральный директор OpenAI Сэм Олтман в интервью Axios заявил, что американские законодатели должны действовать немедленно, чтобы подготовиться к эре продвинутого искусственного интеллекта. Он подчеркнул, что технология уже переходит из теоретической плоскости в повседневную экономическую практику, беря на себя задачи, которые раньше требовали команд программистов и исследователей.

Олтман отметил, что новые модели ИИ вскоре помогут учёным совершать крупные открытия и позволят отдельным людям выполнять работу целых групп. Однако этот прогресс несёт и серьёзные риски, особенно в сфере кибербезопасности. По его словам, уже в этом году может произойти «потрясающая мир кибератака», для предотвращения которой потребуется «огромный объём работы».

Технический директор компании-производителя аппаратных кошельков Ledger Шарль Гийоме подтвердил эти опасения на примере криптоиндустрии. Он заявил, что инструменты на основе ИИ снижают стоимость и требуемый уровень навыков для поиска и эксплуатации уязвимостей в программном обеспечении. Задачи, которые раньше занимали месяцы — например, реверс-инжиниринг кода или связывание нескольких уязвимостей, — теперь могут быть выполнены за секунды с помощью правильных запросов.

Это уже имеет ощутимые последствия: в прошлом году в криптоиндустрии было украдено или потеряно в результате атак более $1,4 млрд активов, и эта цифра, по мнению Гийоме, может продолжать расти. Дополнительную угрозу создаёт растущая зависимость разработчиков от кода, сгенерированного ИИ, который потенциально может массово внедрять новые уязвимости.

В качестве ответных мер Гийоме предложил усиление защиты, включая математически верифицированный код, аппаратные устройства для хранения приватных ключей в офлайн-режиме и более широкое признание того, что системы могут давать сбои.

Олтман также указал на риски в области биобезопасности. «Мы уже не так далеки от мира, в котором существуют невероятно мощные модели с открытым исходным кодом, которые очень хорошо разбираются в биологии», — сказал он. Потребность общества в устойчивости к попыткам террористических групп использовать эти модели для создания новых патогенов, по его словам, «больше не является теоретической».

Говоря о потенциальной национализации OpenAI, Олтман заявил, что главный аргумент против неё заключается в том, что США необходимо добиться «сверхразума», согласованного с демократическими ценностями страны, раньше своих соперников. Он сомневается, что такой проект может быть успешно реализован государством.

В долгосрочной перспективе Олтман видит ИИ как коммунальную услугу, подобную электричеству, встроенную во все устройства, где стоимость базового интеллекта будет падать, а топовые системы останутся дорогими. Он также подчеркнул, что «невероятно важно, чтобы люди, создающие ИИ, были высокоинтегрированными и заслуживающими доверия».

Главное сегодня
Отказ от ответственности

Данный материал носит информационный характер и не является инвестиционной рекомендацией. Криптоактивы высокорискованны и волатильны — возможна полная потеря средств. Материалы могут содержать ссылки и пересказы сторонних источников; администрация не отвечает за их содержание и точность. Coinalertnews рекомендует самостоятельно проверять информацию и консультироваться со специалистами, прежде чем принимать любые финансовые решения на основе этого контента.