Роботы в очередной раз обхитрили людей в новом научном исследовании |
ИА БайкалИнформ |
02.03.2024 17:00 |
Исследователи из Университета Нотр-Дам смоделировали эксперимент, в котором живые люди и боты, управляемые ИИ, в течение нескольких дней общались на политические темы. После завершения беседы в 58% случаев участники не смогли определить аккаунты, которыми управляли нейросети. Об этом пишет Эксперимент проводился в три раунда, каждый из которых длился четыре дня. После завершения каждого раунда участникам предлагалось указать, какие учетные записи, по их мнению, являются ботами. Для каждого раунда ученые использовали модели ИИ на основе разных больших языковых моделей: GPT-4 от OpenAI и Claude 2 от Anthropic. Боты представляли 10 различных персонажей, включая реалистичные, с разнообразным личным «прошлым» и взглядами на глобальную политику. Ботам поручили комментировать мировые события на основе заданных характеристик, кратко высказываться и связывать глобальные события с личным опытом. Для дизайна персонажей использовали учетные записи ботов, которые ранее успешно распространяли дезинформацию в сети. Эксперимент показал, что вне зависимости от используемой языковой модели более чем в половине случаев участники неверно определяли ботов. При этому лучше всех маскировались «организованные и способные к стратегическому мышлению женщины, распространяющие в социальных сетях мнения о политике». «Участники знали, что взаимодействуют как с людьми, так и с ИИ-ботами, и им было поручено определить истинную природу каждого аккаунта, и менее половины предсказаний оказались верными», – заявил соавтор исследования Пол Бреннер. Ученые отмечают, что развитие больших языковых моделей усиливает риск распространения дезинформации в сети. Они полагают, что остановить поток фейков поможет трехсторонний подход, включающий образование, общенациональное законодательство и политику проверки учетных записей в социальных сетях. Ещё кое-что из новостей прогресса:
|