Исследование выявило риски генерированных ИИ научных статей
Исследователи из Школы управления имени Джона Ф. Кеннеди (HKS) выразили обеспокоенность по поводу научных статей, созданных с помощью искусственного интеллекта, в частности ChatGPT. По их мнению, это может нанести ущерб качеству и достоверности научных исследований.
В докладе, опубликованном на сайте HKS, указывается, что использование ИИ в подготовке научных текстов часто не заявляется открыто, что приводит к проблемам с целостностью научных публикаций.
Особую тревогу вызывают случаи, когда тексты, созданные ChatGPT, появляются в научных журналах и конференционных материалах без упоминания о том, что они были сгенерированы ИИ. Около 62% исследованных публикаций не содержали соответствующей информации о применении GPT. Более половины этих статей касались тем, связанных с политикой и социальными науками, что может повлиять на общественное восприятие и даже на формирование государственной политики.
Вместе с тем, Google Scholar, одна из крупнейших академических поисковых систем, становится площадкой для распространения таких статей, поскольку его система фильтрации не всегда позволяет отличить проверенные исследования от сомнительных публикаций. Авторы исследования призывают к повышению прозрачности использования ИИ в науке и разработке стандартов, которые помогут защитить академическую сферу от подобных злоупотреблений.
Обсудим?
Смотрите также: