ChatGPT смог распознать свои же «фейки» среди научных статей

По инф. lenta.ru   
12.06.2023 17:00

Американские ученые создали инструмент, который отличает статьи, написанные реальными учеными и искусственным интеллектом.

ChatGPT смог распознать свои же «фейки» среди научных статей

Специалисты Канзасского университета (США) обеспокоились тем, что ChatGPT и прочие генеративные модели начали применять для написания научных работ. В ходе эксперимента инженеры организации создали инструмент на основе ИИ, который обнаруживает фейковые научные материалы. Точность сервиса оценили в 99 процентов.

Автор научной работы Хизер Десэр вместе с коллегами отобрал 64 научные статьи: часть из них была написана реальными учеными, другая часть — сгенерирована с помощью искусственного интеллекта. Материалы загрузили в ChatGPT и попросили чат-бота написать 128 поддельных статей. В общей сложность ИИ сгенерировал 1276 абзацев, которые затем снова использовали для обучения.

В результате выяснилась, что созданный на основе ChatGPT сервис позволяет отличать реальные статьи от поддельных с точностью 99 процентов. Однако на уровне анализа отдельных абзацев точность немного снижается — до 92 процентов.

Специалисты заключили, что написанный живым человеком текст вполне реально отличить от созданного чат-ботом. Настоящие ученые, как правило, пишут более длинные предложения и применяют более разнообразные слова. Также люди чаще используют знаки препинания.

Ещё кое-что о науке:

По инф. lenta.ru

Новости о всякой всячине

 

Сергей Шмидт - серия колонок

Видеосюжеты
Сергей Шмидт: Срок