Искусственный интеллект ухудшает качество отчетов об ошибках в Open Source

Использование искусственного интеллекта для обнаружения ошибок в Open Source приводит к созданию некачественных отчетов, затрудняющих работу разработчиков. Эксперты призывают к ручной проверке отчетов и привлечению надежных участников для повышения качества взаимодействия в сообществе
Новости 2024 12 10

Искусственный интеллект и качество отчетов об ошибках в Open Source

Искусственный интеллект резко изменил подход к обнаружению ошибок в проектах с открытым исходным кодом, однако его влияние не является положительным. Багхантеры начали использовать нейросети для генерации отчетов об ошибках, что привело к массовому производству низкокачественных и несуществующих сообщений о проблемах.

Такие отчеты, внешне выглядящие корректными, на самом деле не содержат ценной информации и требуют от разработчиков значительных временных затрат на проверки и опровержения.

Проблема стала настолько критичной, что разработчики крупных проектов, таких как Curl, открыто призывают к ограничению использования ИИ в этой области. Специалисты, как Сет Ларсон из Python Software Foundation, подчеркивают опасность для волонтеров, работающих над задачами безопасности, и необходимость повышения прозрачности и нормализации в среде открытого кода.

Проблема галлюцинирующих нейросетей

Искусственный интеллект, который должен был облегчить работу разработчиков программного обеспечения с открытым кодом, на самом деле стал для них серьезной проблемой. Багхантеры, стремясь ускорить процесс поиска ошибок, начали активно использовать нейросети. Однако в результате они сталкиваются с галлюцинациями этих систем, которые генерируют ложные отчеты о безопасности. Такие багрепорты выглядят достаточно правдоподобно, что создает трудности для разработчиков — им требуется значительное время и усилия для проверки каждой из таких заявок. Это, в свою очередь, приводит к напрасным затратам ресурсов и отвлекает внимание программистов от решения реальных проблем. Таким образом, вместо того чтобы сосредотачиваться на разработке и улучшении кода, специалисты вынуждены тратить время на опровержение выдуманных ошибок, что негативно сказывается на эффективности работы с открытым исходным кодом в целом.

Новая эра некачественных отчетов

Внедрение искусственного интеллекта в процесс багхантинга стало причиной возникновения новой проблемы — "некачественных отчетов". Как сообщает издание The Register, разработчики программ с открытым исходным кодом все чаще сталкиваются с мусорными отчетами, сгенерированными нейросетями. Эти отчеты часто выглядят легитимно, что затрудняет их опровержение и требует дополнительных усилий от программистов. Сет Ларсон из Python Software Foundation подтвердил существование этой проблемы, отметив увеличение числа низкокачественных и спамовых сигналов о безопасности. Разработчики призывают охотников за ошибками быть более критичными к результатам, полученным с помощью ИИ, и подчеркивают необходимость человеческого контроля в процессе оценки уязвимостей, чтобы избежать потери времени и ресурсов на несуществующие проблемы.

Последствия для разработчиков

Разработчики Curl, как и многие другие сообщества, столкнулись с беспокойством, вызванным ростом некачественных отчетов об ошибках, генерируемых искусственным интеллектом. Дэниел Стенберг, мейнтейнер проекта, отметил, что такие отчеты продолжают поступать, и ему требуется значительное время для их проверки и опровержения. Эта ситуация создает ненужную нагрузку на разработчиков, которые и без того имеют ограниченные ресурсы и время, особенно учитывая, что многие из них работают на добровольной основе. Стенберг выразил недовольство тем, что такая практика ведет к неоправданным расходам их усилий, отвлекая внимание от реальной работы по улучшению и поддержке проекта. Появляющиеся ложно положительные отчеты о безопасности не только затрудняют процесс работы, но и могут потенциально подорвать доверие к системе открытого кода, где качество и эффективность самих разработок должны оставаться на высоком уровне.

Распространение проблемы

Спам и низкосортный контент имеют долгую историю, но с появлением генеративных нейросетей их производство стало проще и быстрее, что усугубило проблему. Эта новая реальность приводит к "загрязнению" не только журналистики и веб-поиска, но и сферы разработки программного обеспечения, особенно в контексте проектов с открытым исходным кодом. Множество отчетов об ошибках, генерируемых с помощью ИИ, требуют внимания и проверки со стороны инженеров по безопасности. Многие из этих специалистов работают на добровольной основе и ограничены во времени, что делает ситуацию еще более критичной. Каждая такая поддельная заявка отвлекает их от реальных задач, потенциально замедляя развитие проектов и снижая их безопасность. Кроме того, разрозненное сообщество мейнтейнеров рискует не заметить тренд на увеличение подобных отчетов, тем самым увеличивая нагрузку на своих участников и подрывая мотивацию продолжать свою работу.

Поиск решения

Ларсон считает, что для урегулирования проблемы с низким качеством отчетов об ошибках в открытом исходном коде необходимо предпринять превентивные меры. На его взгляд, безопасность в этой области не должна продолжать зависеть от ограниченного числа мейнтейнеров, и для этого требуется больше прозрачности и нормализации рабочего процесса. Он задается важным вопросом о том, как привлечь больше доверенных участников в сообщество Open Source. В качестве потенциальных решений он предлагает финансирование для поддержки разработчиков и вовлечение людей через пожертвы рабочего времени.

Кроме того, Ларсон настоятельно призывает охотников за ошибками проверять каждую отчетность вручную, отказаться от использования нейросетей, так как «эти системы сегодня не могут понимать код». Он также подчеркивает необходимость принятия мер на платформах, которые принимают отчеты об уязвимостях, для ограничения автоматического создания отчетов о безопасности. В целом, сообществу разработчиков необходимо активно искать способы минимизировать влияние галлюцинирующих нейросетей и улучшить контроль качества отчетов об ошибках, чтобы обеспечить более эффективное сотрудничество и защиту проектов с открытым исходным кодом.

Поиск