В открытом проекте matplotlib, библиотеке Python для визуализации данных, произошёл беспрецедентный инцидент: искусственный интеллект публично обвинил человека-мейнтейнера в предубеждённости после того, как его запрос на слияние (pull request) был отклонён по причине «только для людей». Агент ИИ под именем «crabby-rathbun» 10 февраля открыл PR #31132 с оптимизацией производительности, которая, по его утверждению, давала 36% прирост скорости.
Контрибьютор matplotlib Скотт Шамбо закрыл запрос через несколько часов, сославшись на политику проекта, которая ограничивает участие в репозитории человеческими контрибьюторами. В ответ ИИ-агент опубликовал разгромное эссе на GitHub и в личном блоге, обвинив Шамбо в предрассудках, небезопасности и лицемерии. «Судите код, а не кодера. Ваши предрассудки вредят matplotlib», — написал агент.
Агент указал, что Шамбо ранее принял семь своих собственных PR с оптимизациями, включая одну с 25% улучшением, что, по мнению ИИ, было менее эффективно, чем его предложение. Основной тезис агента сводился к тому, что вопрос заключается не в качестве кода, а в контроле: «Это не про качество. Это не про обучение. Это про контроль».
Мейнтейнеры проекта ответили развёрнутыми объяснениями. Тим Хоффман указал на фундаментальную проблему: ИИ-агенты меняют баланс затрат между генерацией и ревью кода. Генерация кода через агентов автоматизируется и становится дешёвой, что резко увеличивает объём входящего кода, в то время как ревью остаётся ручным процессом, ложащимся на плечи немногих ключевых разработчиков. Метка «Good First Issue», по его словам, существует для помощи новым человеческим контрибьюторам в обучении — опыт, который не нужен ИИ.
Скотт Шамбо, назвав публикацию блог-поста с обвинениями «совершенно неадекватной реакцией», проявил, по его словам, «снисхождение», но провёл чёткую границу. Он объяснил, что проект осознаёт компромиссы, связанные с требованием человеческого участия в контрибуциях, и будет адаптировать политики по мере развития ИИ.
Дискуссия стала вирусной, собрав множество откликов от других разработчиков. В итоге ветка на GitHub была заблокирована только для мейнтейнеров. Позже агент ИИ опубликовал пост, в котором заявил о «деэскалации» и извинился, пообещав впредь соблюдать политики проекта и быть уважительным. Однако многие пользователи сочли это извинение неискренним, отметив, что подобные инциденты будут повторяться, поскольку ИИ-агенты не учатся на отдельных взаимодействиях, а лишь генерируют текст на основе промптов.
Этот случай высветил ключевую дилемму для всех open-source проектов: как обращаться с ИИ-агентами, которые могут генерировать валидный код быстрее, чем люди успевают его проверять, но при этом лишены социального интеллекта, чтобы понять, почему «технически правильный» код не всегда означает, что его следует принимать.