Ответить любой ценой: учёные рассказали о проблеме современных чат-ботов |
| ИА БайкалИнформ |
| 29.09.2024 17:00 |
|
Крупные чат-боты на основе искусственного интеллекта (ИИ) стали чаще ошибаться, давая ответы на сложные вопросы. О новом исследовании пишет
Автор научной работы Хосе Эрнандес-Оралло из Валенсийского исследовательского института искусственного интеллекта в Испании проверил работу трех крупнейших чат-ботов на основе передовых ИИ-моделей. По его словам, чат-боты фактически разучились отвечать «я не знаю» на сложные вопросы, но стали совершать больше ошибок. Ученый полагает, что паттерн «отвечать любой ценой» заложен в модели создателями. Специалист и его коллеги изучили три семейства больших языковых моделей (LLM), в число которых вошли GPT OpenAI, BLOOM и модель, созданная академической группой BigScience. В ходе тестирования ученые задавали сложные вопросы и заставляли ИИ решать математические задачи. Выяснилось, что модели стали значительно умнее по сравнению с предшественниками, но также они начали совершать ошибки вместо того, чтобы сказать, что не знают ответа. Команда исследователей также обнаружила, что все модели иногда давали неправильные ответы даже на простые вопросы. «Люди не могут контролировать эти модели», — заявил Эрнандес-Оралло. По словам ученых, создателям моделей нужно сделать так, чтобы чат-боты имели право пропускать вопросы, ответы на которые они не знают. В противном случае ИИ будет вводить пользователей в заблуждение. Ещё кое-что из новостей прогресса:
|
- Проверка, реквизиты и документы: эксперты рассказали, как оплатить инвойс в Китай без лишних рисков и задержек
- Как выбрать на день рождения подарок, который запомнится? Делимся идеями
- Светофоры, разметка и дорожные знаки: эксперты рассказали о ключевых элементах безопасности в городском трафике
- Итоги первого межрегионального конкурса «БАС на Байкале» подвели в Приангарье
- Ранняя активность клещей ожидается в Бурятии в этом году


