Проблема копирования из ChatGPT в научных статьях растет

В научных статьях, включая рецензируемые журналы, обнаружены примеры копирования текста из ChatGPT. Гийом Кабанак отметил наличие специфических фраз, указывающих на использование ИИ. Этот случай подчеркивает растущую проблему в академическом рецензировании
Новости 2024 10 18

Проблема сгенерированных текстов в научных статьях

В последние годы проблема использования сгенерированных текстов при помощи ChatGPT и других больших языковых моделей становится все более актуальной в научной среде. Как показывает практика, такая практика наблюдается не только среди студентов, но и среди ученых, публикующих свои работы в рецензируемых журналах. Примеры использования автоматически сгенерированного контента обнаруживаются даже в публикациях авторитетных издательств, таких как Elsevier.

Исследования показывают, что рецензенты и редакторы зачастую не замечают явные случаи копирования, что ставит под сомнение качество научной литературы. Например, фразы вроде "As an AI language model" были оставлены в текстах, что указывает на недостаток внимательности со стороны авторов и рецензентов. Одной из причин такой ситуации может быть недостаточная подготовка ученых в области научного письма или отсутствие должного понимания этических норм в публикациях. Это создает серьезные риски для научного сообщества, требующего от всех участников ответственности за качество представляемых материалов.

Злоупотребление в хищнических журналах

Хищнические научные журналы представляют собой особую категорию изданий, которые серьезно подрывают научную целостность. Эти журналы, ориентированные лишь на прибыль, зачастую публикуют работы с минимальным или совершенно отсутствующим рецензированием, что делает их уязвимыми к злоупотреблениям, в том числе к заимствованию текстов. В результате, в таких изданиях можно обнаружить фрагменты текста, скопированные без должного редактирования или проверки, которые искажают суть научных исследований.

Процесс публикации в хищнических журналах сопровождается отсутствием строгих стандартов качества, что открывает дверь для плагиата и копирования. Исследователи, стремящиеся быстро и легко опубликовать свои результаты, могут прибегнуть к использованию БЯМ, не осознавая, что это наносит вред как их репутации, так и самим научным итогам. Это создает негативное восприятие научной литературы как таковой, что, в свою очередь, подрывает доверие к настоящим, добросовестным публикациям и усложняет идентификацию качественных исследований в море полупрофессиональных и неоправданно принятых работ.

Примеры копирования в серьёзных изданиях

Одним из самых ярких примеров небрежности в научных публикациях является статья «Metal Detection Using RF Controlled Robotic Vehicle», в которой осталась фраза, характерная для ответов ChatGPT: «как языковая ИИ-модель». Такие выражения свидетельствуют о том, что авторы, вероятно, не уделили должного внимания редактированию и рецензированию работы. Использование готовых фраз от больших языковых моделей в текстах научных статей подрывает доверие к качеству исследований и их законности. Существование таких фраз вызывает вопросы о том, кто и как проводил рецензирование, и почему редакторы не заметили явные артефакты машинного текста. Это также подчеркивает растущую проблему интеграции автоматизированных инструментов в научное сообщество, что требует более тщательного контроля со стороны авторов и издателей. В нынешних условиях важно не только публиковать исследования, но и гарантировать их подлинность и качество, иначе такие прецеденты только будут накапливаться, дискредитируя научное сообщество в целом.

Проблемы в крупных издательствах

Известные научные издательства, несмотря на свою репутацию, также подвержены появлению ошибок и неточностей, связанных с использованием больших языковых моделей (БЯМ). Гийом Кабанак выявил инциденты, подтверждающие это, в статье «The three-dimensional porous mesh structure of Cu-based metal-organic-framework...», опубликованной в журнале Surfaces and Interfaces, который принадлежит издательству Elsevier. В этой работе была обнаружена фраза, типичная для ChatGPT: «Certainly, here is…», что создало сомнение в подлинности и оригинальности текста. Это свидетельствует о том, что некоторые авторы могли воспользоваться языковыми моделями для генерирования вводных абзацев, не осознавая, насколько это может подорвать доверие к их исследованию. Появление таких артефактов ставит под сомнение качество рецензирования и надзор за публикациями, тем более что репутация ведущих журналов предполагает строгие требования к содержанию.

Проблема использования текстов, сгенерированных большими языковыми моделями, в научных публикациях набирает обороты и вызывает серьезные опасения в академическом сообществе. Несмотря на возможность их легкого нахождения через научные поисковики, такие como Google Scholar, количество статей с явными доказательствами копирования остается высокой.

Необходимость повышения стандартов

С учётом роста использования больших языковых моделей в научных публикациях, необходимо осознать важность повышения стандартов рецензирования и проверки на заимствования. Современные технологии позволяют быстро генерировать тексты, что, безусловно, упрощает жизнь исследователям, но также ставит под угрозу качество научной работы.

Установление более строгих стандартов публикаций и внедрение эффективных инструментов для выявления фрагментов, скопированных из БЯМ, станут важными шагами на пути к поддержанию высокого уровня научной этики. Это необходимо для обеспечения прозрачности и достоверности исследований, поскольку возникает риск потерять доверие как среди научного сообщества, так и у широкой общественности. Рецензенты должны быть более внимательными к деталям и тщательно проверять материалы на предмет возможного заимствования, чтобы предотвратить появление недобросовестной практики в академической среде.

Поиск