Люди попытались научить нейросеть справедливости

ИА БайкалИнформ   
24.06.2024 17:00

Ученые США спроектировали модель искусственного интеллекта (ИИ), которая опирается на справедливость при принятии решений. Об исследовании пишет lenta.ru.

Люди попытались научить нейросеть справедливости

По словам специалистов американских Университета Карнеги — Меллона и Технологического института Стивенса, современные автоматизированные системы настроены таким образом, чтобы быть максимально объективными при принятии решений. Ученые создали модель, которая обучена будет принимать сложные решения, полагаясь на справедливость.

В материале говорится, что модель руководствуется традицией, известной как оптимизация социального обеспечения. То есть ИИ обращает внимание на пользу и вред для конкретных людей. «Оценивая справедливость, ИИ пытается обеспечить равное отношение к группам, которые различаются по экономическому уровню, расе, этническому происхождению, полу и другим категориям», — объяснил профессор Джон Хукер.

В качестве примера авторы научной работы привели ситуацию, когда автоматизированная система принимает решения об одобрении ипотечного кредита определенным лицам. Модель анализирует не только кредитную историю и платежеспособность граждан, но и то, как решение об отказе повлияет на их жизнь. ИИ опирается на контекст: например, система понимает, что отказ в одобрении кредита по-разному повлияет на богатых и бедных людей.

Американские специалисты подчеркнули, что цель-максимум их исследования — поиск баланса между справедливостью и получением максимальной выгоды для всех. По словам ученых, технологии должны способствовать равенству между различными группами общества.

Ещё кое-что о науке:

Новости о всякой всячине

 

Сергей Шмидт - серия колонок

Видеосюжеты
Сергей Шмидт: Срок