Ответить любой ценой: учёные рассказали о проблеме современных чат-ботов |
ИА БайкалИнформ |
29.09.2024 17:00 |
Крупные чат-боты на основе искусственного интеллекта (ИИ) стали чаще ошибаться, давая ответы на сложные вопросы. О новом исследовании пишет Автор научной работы Хосе Эрнандес-Оралло из Валенсийского исследовательского института искусственного интеллекта в Испании проверил работу трех крупнейших чат-ботов на основе передовых ИИ-моделей. По его словам, чат-боты фактически разучились отвечать «я не знаю» на сложные вопросы, но стали совершать больше ошибок. Ученый полагает, что паттерн «отвечать любой ценой» заложен в модели создателями. Специалист и его коллеги изучили три семейства больших языковых моделей (LLM), в число которых вошли GPT OpenAI, BLOOM и модель, созданная академической группой BigScience. В ходе тестирования ученые задавали сложные вопросы и заставляли ИИ решать математические задачи. Выяснилось, что модели стали значительно умнее по сравнению с предшественниками, но также они начали совершать ошибки вместо того, чтобы сказать, что не знают ответа. Команда исследователей также обнаружила, что все модели иногда давали неправильные ответы даже на простые вопросы. «Люди не могут контролировать эти модели», — заявил Эрнандес-Оралло. По словам ученых, создателям моделей нужно сделать так, чтобы чат-боты имели право пропускать вопросы, ответы на которые они не знают. В противном случае ИИ будет вводить пользователей в заблуждение. Ещё кое-что из новостей прогресса:
|
- Москвичей предупредили о вероятности «новогодних землетрясений»
- Рекомендован продукт, «чтоб нервишки не шалили»
- Новация в праве: конфискованные у граждан легковушка и мопед пойдут на нужды СВО
- В прошлое без памяти: путешественники во времени не запомнят своё путешествие
- Новогодняя фотозона появилась в Иркутске на Нижней Набережной