Академический скандал: сотни тысяч научных статей оказались сгенерированы ИИ?
Недавно опубликованное исследование потрясло академический мир, показав, что, возможно, сотни тысяч научных работ были написаны полностью или частично с использованием ИИ.
В исследовании, опубликованном в престижном журнале Science Advances, был разработан чрезвычайно сложный метод анализа языка. Исследователи выделили 454 характерных слова, которые обычно используются в больших языковых моделях (LLM), таких как ChatGPT.
В число этих слов входят «собранный», «охватывающий», «разрастающийся» и многие другие термины, которые необычно часто встречаются в тексте, сгенерированном ИИ.
Когда этот анализ был применён к базе данных PubMed, где ежегодно хранится около 1,5 миллионов научных статей, результаты оказались шокирующими. По данным обзора New York Times, около 200 000 статей ежегодно содержат следы искусственного интеллекта.
Эта реальность становится всё более очевидной, поскольку всё больше научных статей содержат серьёзные ошибки, указывающие на ИИ. Специалист по информатике из Университета штата Аризона Суббарао Камбхампати поделился показательным примером: статья в области медицинской визуализации содержала чёткий ответ от чат-бота.
«Извините, но у меня нет доступа к информации в режиме реального времени или данным о конкретных пациентах, потому что я — языковая модель искусственного интеллекта».
Более тонкие ошибки, такие как фраза «регенерировать ответ» (термин, который ChatGPT использует для воссоздания ответов), были обнаружены во многих исследованиях. Ещё более тревожно то, что в некоторых работах содержались полностью сфабрикованные ссылки или абсурдные изображения, сгенерированные ИИ.
Столкнувшись с этой ситуацией, исследовательское сообщество чётко разделилось на две группы. В то время как одни авторы пытаются скрыть использование ИИ, корректируя формулировки и удаляя слова, которые легко можно было бы списать на «написанные ИИ», другие небрежно или не беспокоятся о сокрытии своего происхождения.
Тенденция к сокрытию использования ИИ становится все более изощренной, что создает серьезные проблемы для поддержания прозрачности и качества научных исследований.

Группа исследователей выступила с мрачным предупреждением о потенциальных последствиях этого явления. По их оценке, если бесконтрольное использование ИИ в научных работах продолжится, это может оказать «беспрецедентное влияние на научную литературу в области биомедицинских исследований, даже превзойдя последствия пандемии COVID-19».
Соавтор исследования Дмитрий Кобак подчеркнул важность сохранения аутентичности в исследованиях: «Я считаю, что в такой важной работе, как написание исследовательского тезисов, нельзя позволять ИИ делать это за вас».