Ответить любой ценой: учёные рассказали о проблеме современных чат-ботов |
ИА БайкалИнформ |
29.09.2024 17:00 |
Крупные чат-боты на основе искусственного интеллекта (ИИ) стали чаще ошибаться, давая ответы на сложные вопросы. О новом исследовании пишет Автор научной работы Хосе Эрнандес-Оралло из Валенсийского исследовательского института искусственного интеллекта в Испании проверил работу трех крупнейших чат-ботов на основе передовых ИИ-моделей. По его словам, чат-боты фактически разучились отвечать «я не знаю» на сложные вопросы, но стали совершать больше ошибок. Ученый полагает, что паттерн «отвечать любой ценой» заложен в модели создателями. Специалист и его коллеги изучили три семейства больших языковых моделей (LLM), в число которых вошли GPT OpenAI, BLOOM и модель, созданная академической группой BigScience. В ходе тестирования ученые задавали сложные вопросы и заставляли ИИ решать математические задачи. Выяснилось, что модели стали значительно умнее по сравнению с предшественниками, но также они начали совершать ошибки вместо того, чтобы сказать, что не знают ответа. Команда исследователей также обнаружила, что все модели иногда давали неправильные ответы даже на простые вопросы. «Люди не могут контролировать эти модели», — заявил Эрнандес-Оралло. По словам ученых, создателям моделей нужно сделать так, чтобы чат-боты имели право пропускать вопросы, ответы на которые они не знают. В противном случае ИИ будет вводить пользователей в заблуждение. Ещё кое-что из новостей прогресса:
|
- Американец разрешает детям спать в обнимку со змеями
- OpenAI мечтает о собственном браузере со встроенным чат-ботом
- Овечкин творит историю: магия русской машины возрождает «Вашингтон»
- Современные грузоперевозки: логисты рассказали, как технологии и нестандартный подход меняют индустрию
- Легализация азартной индустрии в Канаде: эксперты оценили современные реалии и экономические последствия