Создать аккаунт
Главные новости » Наука и технологии » Исследование выявило риски генерированных ИИ научных статей

Исследование выявило риски генерированных ИИ научных статей



Фото из открытых источников
Исследователи из Школы управления имени Джона Ф. Кеннеди (HKS) выразили обеспокоенность по поводу научных статей, созданных с помощью искусственного интеллекта, в частности ChatGPT. По их мнению, это может нанести ущерб качеству и достоверности научных исследований.
 
В докладе, опубликованном на сайте HKS, указывается, что использование ИИ в подготовке научных текстов часто не заявляется открыто, что приводит к проблемам с целостностью научных публикаций.
 
Особую тревогу вызывают случаи, когда тексты, созданные ChatGPT, появляются в научных журналах и конференционных материалах без упоминания о том, что они были сгенерированы ИИ. Около 62% исследованных публикаций не содержали соответствующей информации о применении GPT. Более половины этих статей касались тем, связанных с политикой и социальными науками, что может повлиять на общественное восприятие и даже на формирование государственной политики.
 
Вместе с тем, Google Scholar, одна из крупнейших академических поисковых систем, становится площадкой для распространения таких статей, поскольку его система фильтрации не всегда позволяет отличить проверенные исследования от сомнительных публикаций. Авторы исследования призывают к повышению прозрачности использования ИИ в науке и разработке стандартов, которые помогут защитить академическую сферу от подобных злоупотреблений.

0 комментариев
Обсудим?
Смотрите также:
Продолжая просматривать сайт gulkevichi.com вы принимаете политику конфидициальности.
ОК