Этика для роботов: кто и как регулирует разработки ИИ » Элитный трейдер
Элитный трейдер

Этика для роботов: кто и как регулирует разработки ИИ

24 мая 2023 БКС Экспресс
Сегодня только и говорят об искусственном интеллекте: кто-то пророчит невиданный технологический скачок благодаря его развитию, а кто-то, напротив, до ужаса боится восстания машин. Кто же регулирует разработки ИИ? Постараемся разобраться.

Зачем искусственному интеллекту этика

Искусственный интеллект превосходит способности человека. Например, люди не в состоянии анализировать гигантские объемы данных, как это делает ИИ за относительно короткие промежутки времени. Зачастую подлинность такой информации человек проверить просто не способен. В то же время мы даем технологии возможность самостоятельно принимать решения вместо нас.

Отсюда вытекает главный вопрос: насколько этичны и безопасны в широком смысле слова действия и решения ИИ? Чтобы понять, почему возникла необходимость его регулирования, достаточно вспомнить несколько примеров из реальной жизни, когда он создавал изрядное количество проблем

Как люди против ИИ выступали

Военные разработки

В 2018 г. Минобороны США заручилось поддержкой Google для машинного обучения беспилотников. Это позволило бы технике обрабатывать гигантские объемы визуальной информации и, соответственно, улучшить наведение ударов. Так появился проект Пентагона Maven.

Информацию просочилась в СМИ, и 4 тыс. сотрудников Google запротестовали. В конце концов компания отказалась от сотрудничества с Пентагоном и даже ввела запрет на разработку ИИ для военных.

Расовая и социальная предвзятость

Медицинские организации в США использовали алгоритмы ИИ, чтобы распределять пациентов по категориям для дальнейшего лечения. Но оказалось, что система относила чернокожих пациентов с тяжелыми заболеваниями к той же группе, что и гораздо более здоровых белых: кто тратит больше денег на лечение, тому помощь и нужнее.

Еще одна проблема — технология распознавания лиц, которая не может точно идентифицировать подозреваемых. Это приводит к задержанию невиновных людей.

Эксперты в тревоге

Илон Маск и его коллеги недавно призвали немедленно остановить обучение систем мощнее GPT-4 хотя бы на полгода — до тех пор, пока технологию не начнут нормально регулировать.

Среди обеспокоенных оказался и профессор компьютерных наук из Калифорнийского университета в Беркли Стюарт Рассел. Позднее он дал интервью изданию The Times, где сравнил сверхмощный ИИ с более развитой инопланетной цивилизацией, которая вторглась на Землю.

Президент технологической компании Signal Foundation Мередит Уиттакер заявила, что популярный чат-бот с искусственным интеллектом ChatGPT «сильно разрекламирован и вызывает опасения по поводу кражи интеллектуальной собственности». Также она указана на климатический след, который остается из-за потребления большого количества энергии при вычислениях.

Мировой взгляд на ИИ

По данным Стэнфордского института искусственного интеллекта, ориентированного на человека, за прошлый год 127 стран приняли 37 законов по регулированию технологии. В лидерах — США с девятью принятыми документами.

С каждым годом мировой интерес к регулированию умных роботов возрастал: согласно данным института, с 2016 г. разные страны издали 123 закона об ИИ, большую часть — в последние годы.

Интересные подходы к этике

Регуляторные документы в разных странах схожи, так как опираются на ключевые принципы и идеи, которые должны обеспечить максимальную безопасность и выгоду для общества. А еще законы помогают странам стремиться к лидерству и конкурентоспособности на мировой арене. Приведем несколько примеров интересных инициатив.

• В 2017 г. Парламент ЕС принял резолюцию Civil Law Rules on Robotics, которая довольно быстро наделала шуму. Особенно продвинутых роботов с ИИ в долгосрочной перспективе предложили наделить правовым статусом «электронных лиц». Что это значит?

Возникла потребность в разделении навыков, приобретенных машиной в рамках обучения с тренером — то есть человеком — и сформированных самостоятельно, через самообучение. Новый статус позволил бы распределить ответственность за причиняемый технологией вред.

Для этих же целей резолюция предложила создать единую европейскую систему регистрации роботов с ИИ — через нее любой желающий мог бы получить информацию о создателе машины и его зоне ответственности за ее ошибки.

По крайней мере пока что, посчитал Европарламент, ответственность за ИИ должна лежать на человеке.

• Машины с разной степенью автономности с недавнего времени стали пользоваться особой популярностью в мире. На этом фоне ряд стран подготовил своды правил пользования такими автомобилями. Примеры — Закон об автономных автомобилях в Германии или Руководство по испытаниям автоматизированных транспортных средств в Австралии.

• В Бельгии действует Резолюция о запрете применения автономных смертельных систем вооружения.

• Китайские власти серьезно относятся к вопросу своей безопасности. Страна известна своей системой контроля над поведением граждан, основанной на ИИ — правительство не скрывает, что поддерживает инновации и применение технологии, но отмечает, что она «должна соответствовать основным социалистическим ценностям страны».

А еще правительство делает ставку на военно-техническую сферу. Например, в 2018 г. Пекинский технологический институт отобрал 31 одаренного выпускника из средних школ для участия в программе разработки ИИ-оружия.

В 2018 г. Китай опубликовал «Белую книгу по стандартизации искусственного интеллекта». В ее создании участвовали 30 организаций — от научных институтов до крупнейших технологичных компаний.
А что в России

В России действуют запущенная в 2019 г. Национальная стратегия развития искусственного интеллекта до 2030 г. и федеральный проект «Искусственный интеллект». Они нацелены на всестороннее развитие и поддержку технологии.

Так как законодательно многие этические моменты создания и использования ИИ в РФ пока не регулируются, правительство и ряд крупнейших компаний подписали специальный Кодекс этики. Он распространяется только на гражданские разработки.

Руководствуется этот документ 6 основными принципами:

• Главный приоритет развития технологий ИИ в защите интересов и прав людей и отдельного человека.

• Необходимо осознавать ответственность при создании и использовании ИИ.

• Ответственность за последствия применения системы искусственного интеллекта всегда несет человек.

• Технологии ИИ нужно применять по назначению и внедрять там, где это принесет пользу людям.

• Интересы развития технологий ИИ выше интересов конкуренции.

• Важна максимальная прозрачность и правдивость в информировании об уровне развития технологий ИИ, их возможностях и рисках.

Кодекс носит рекомендательный характер. На сегодняшний день к нему присоединилась 181 крупнейшая компания России из разных отраслей: Сбербанк, Яндекс, VK, МТС, Ростелеком и прочие.

Какие еще идеи на повестке

Центральный банк России планирует создать специальный центр компетенции, где участники рынка смогут обсуждать насущные вопросы развития технологии.

«С учетом того, как он [искусственный интеллект] развивается, надо понять и осознать, каким образом мы будем этим процессом управлять. Искусственный интеллект как атом — есть мирный, есть немирный. Если машины выходят на уровень, когда они сами себя программируют, сами себя обучают, риски становятся неподконтрольными», — прокомментировала решение первый зампредседатель ЦБ РФ Ольга Скоробогатова.

http://bcs-express.ru/ (C)
Не является индивидуальной инвестиционной рекомендацией
При копировании ссылка обязательна Нашли ошибку: выделить и нажать Ctrl+Enter