Люди попытались научить нейросеть справедливости |
ИА БайкалИнформ |
24.06.2024 17:00 |
Ученые США спроектировали модель искусственного интеллекта (ИИ), которая опирается на справедливость при принятии решений. Об исследовании пишет По словам специалистов американских Университета Карнеги — Меллона и Технологического института Стивенса, современные автоматизированные системы настроены таким образом, чтобы быть максимально объективными при принятии решений. Ученые создали модель, которая обучена будет принимать сложные решения, полагаясь на справедливость. В материале говорится, что модель руководствуется традицией, известной как оптимизация социального обеспечения. То есть ИИ обращает внимание на пользу и вред для конкретных людей. «Оценивая справедливость, ИИ пытается обеспечить равное отношение к группам, которые различаются по экономическому уровню, расе, этническому происхождению, полу и другим категориям», — объяснил профессор Джон Хукер. В качестве примера авторы научной работы привели ситуацию, когда автоматизированная система принимает решения об одобрении ипотечного кредита определенным лицам. Модель анализирует не только кредитную историю и платежеспособность граждан, но и то, как решение об отказе повлияет на их жизнь. ИИ опирается на контекст: например, система понимает, что отказ в одобрении кредита по-разному повлияет на богатых и бедных людей. Американские специалисты подчеркнули, что цель-максимум их исследования — поиск баланса между справедливостью и получением максимальной выгоды для всех. По словам ученых, технологии должны способствовать равенству между различными группами общества. Ещё кое-что о науке:
|