ChatGPT смог распознать свои же «фейки» среди научных статей |
По инф. lenta.ru |
12.06.2023 17:00 |
Американские ученые создали инструмент, который отличает статьи, написанные реальными учеными и искусственным интеллектом. Специалисты Канзасского университета (США) обеспокоились тем, что ChatGPT и прочие генеративные модели начали применять для написания научных работ. В ходе эксперимента инженеры организации создали инструмент на основе ИИ, который обнаруживает фейковые научные материалы. Точность сервиса оценили в 99 процентов. Автор научной работы Хизер Десэр вместе с коллегами отобрал 64 научные статьи: часть из них была написана реальными учеными, другая часть — сгенерирована с помощью искусственного интеллекта. Материалы загрузили в ChatGPT и попросили чат-бота написать 128 поддельных статей. В общей сложность ИИ сгенерировал 1276 абзацев, которые затем снова использовали для обучения. В результате выяснилась, что созданный на основе ChatGPT сервис позволяет отличать реальные статьи от поддельных с точностью 99 процентов. Однако на уровне анализа отдельных абзацев точность немного снижается — до 92 процентов. Специалисты заключили, что написанный живым человеком текст вполне реально отличить от созданного чат-ботом. Настоящие ученые, как правило, пишут более длинные предложения и применяют более разнообразные слова. Также люди чаще используют знаки препинания. Ещё кое-что о науке:
|
- Мужчина вернул украденные женские трусики из-за чувства вины
- Жительница Индии случайно проглотила зубную щётку
- Как россияне относятся к попутчикам во время путешествий?
- Женщина умерла после шести пластических операций подряд
- Шесть медалей завоевали иркутяне на всероссийских соревнованиях по кикбоксингу