4 октября 2021 ForkLog
В документе изложены шесть основных принципов для систем искусственного интеллекта. Среди них:
обеспечение «управляемости и надежности» ИИ;
благосостояние людей;
обеспечение честности и справедливости;
защита частной жизни и безопасности;
повышение этической грамотности.
В руководстве упоминаются безопасность данных, личная конфиденциальность и право отказаться от принятия решений на основе искусственного интеллекта. В документе указано, что люди должны иметь право принимать решения и выбирать, пользоваться услугами с ИИ или прекращать работу с ними в любое время.
Официальная цель руководства — «убедиться, что искусственный интеллект всегда находится под контролем людей».
Предотвращение рисков требует выявления и устранения уязвимостей в системах ИИ, обеспечения подотчетности организаций, а также улучшения управления и контроля качества продуктов ИИ, говорится в документе.
Руководящие принципы запрещают разрабатывать и использовать сервисы с искусственным интеллектом в незаконной деятельности, а также угрожающих национальной, общественной и производственной безопасности. Кроме этого, они не должны наносить вред общественным интересам, говорится в документе.
По словам аналитика немецкого института китайских исследований Меркатора Ребекки Арчесати [Rebecca Arcesati], это первое уточнение этики ИИ от правительства КНР.
«Китай в конечном итоге выбирает деспотичную модель, когда государство очень серьезно думает о долгосрочных социальных преобразованиях, которые принесет ИИ, и пытается активно управлять и направлять их», — считает она.
Арчесати добавила, что китайские власти действуют дальновидно, а новые рекомендации — «четкое послание технологическим гигантам, которые построили целые бизнес-модели на алгоритмах рекомендаций».
Не является индивидуальной инвестиционной рекомендацией | При копировании ссылка обязательна | Нашли ошибку - выделить и нажать Ctrl+Enter | Жалоба
