ChatGPT смог распознать свои же «фейки» среди научных статей |
По инф. lenta.ru |
12.06.2023 17:00 |
Американские ученые создали инструмент, который отличает статьи, написанные реальными учеными и искусственным интеллектом. Специалисты Канзасского университета (США) обеспокоились тем, что ChatGPT и прочие генеративные модели начали применять для написания научных работ. В ходе эксперимента инженеры организации создали инструмент на основе ИИ, который обнаруживает фейковые научные материалы. Точность сервиса оценили в 99 процентов. Автор научной работы Хизер Десэр вместе с коллегами отобрал 64 научные статьи: часть из них была написана реальными учеными, другая часть — сгенерирована с помощью искусственного интеллекта. Материалы загрузили в ChatGPT и попросили чат-бота написать 128 поддельных статей. В общей сложность ИИ сгенерировал 1276 абзацев, которые затем снова использовали для обучения. В результате выяснилась, что созданный на основе ChatGPT сервис позволяет отличать реальные статьи от поддельных с точностью 99 процентов. Однако на уровне анализа отдельных абзацев точность немного снижается — до 92 процентов. Специалисты заключили, что написанный живым человеком текст вполне реально отличить от созданного чат-ботом. Настоящие ученые, как правило, пишут более длинные предложения и применяют более разнообразные слова. Также люди чаще используют знаки препинания. Ещё кое-что о науке:
|
- Жуткий мужчина в маске забрался в дом к женщине и наблюдал за её сном
- Команды волонтеров БрАЗа станут участниками «Новогоднего марафона» РУСАЛа и Эн+
- Иркутянин осужден за «домашний шпионаж»
- Усольчанин избил покупателя золота и украл у него 48 млн рублей
- Сотрудники ИГУ стали победителями четвёртого цикла конкурса «Профессиональное развитие»