Люди попытались научить нейросеть справедливости |
ИА БайкалИнформ |
24.06.2024 17:00 |
Ученые США спроектировали модель искусственного интеллекта (ИИ), которая опирается на справедливость при принятии решений. Об исследовании пишет По словам специалистов американских Университета Карнеги — Меллона и Технологического института Стивенса, современные автоматизированные системы настроены таким образом, чтобы быть максимально объективными при принятии решений. Ученые создали модель, которая обучена будет принимать сложные решения, полагаясь на справедливость. В материале говорится, что модель руководствуется традицией, известной как оптимизация социального обеспечения. То есть ИИ обращает внимание на пользу и вред для конкретных людей. «Оценивая справедливость, ИИ пытается обеспечить равное отношение к группам, которые различаются по экономическому уровню, расе, этническому происхождению, полу и другим категориям», — объяснил профессор Джон Хукер. В качестве примера авторы научной работы привели ситуацию, когда автоматизированная система принимает решения об одобрении ипотечного кредита определенным лицам. Модель анализирует не только кредитную историю и платежеспособность граждан, но и то, как решение об отказе повлияет на их жизнь. ИИ опирается на контекст: например, система понимает, что отказ в одобрении кредита по-разному повлияет на богатых и бедных людей. Американские специалисты подчеркнули, что цель-максимум их исследования — поиск баланса между справедливостью и получением максимальной выгоды для всех. По словам ученых, технологии должны способствовать равенству между различными группами общества. Ещё кое-что о науке:
|
- Из-за одного трудолюбивого бобра тысячи людей могут лишиться воды
- Молодые путешественники облюбовали один древний российский город
- Юный ангарчанин на иномарке врезался в столб, удирая от полицейской погони
- «Серый» майнер из Тулуна похищал электроэнергию на шесть квартир
- Иркутянин познакомился с девушкой в интернете и остался без денег