Искусственный интеллект под контролем » Элитный трейдер
Элитный трейдер


Искусственный интеллект под контролем

30 мая 2023 ИХ "Финам" Поздеева Екатерина
В 2023 году мир всколыхнул генеративный искусственный интеллект от компании OpenAI - GPT-4, который может создавать изображения, видео, тексты, код и другое. Эксперты называют его прорывом и предупреждают, что дальнейшее развитие технологии может привести к кардинальному изменению рынка труда и даже выйти из-под контроля.

Finam.ru рассказывает, как страны создают законодательство для регулирования ИИ.

Евросоюз и Google разработают пакт об ИИ
На прошлой неделе стало известно, что Google и ЕС планируют совместно разработать новый пакт об ИИ. Ранее вице-председатель Европейской комиссии по цифровым технологиям Маргрета Вестагер подчеркнула, что ЕС разрабатывает правила регулирования работы генеративного искусственного интеллекта. Так, в планах есть введение обязательной маркировки для фотографий, видео и песен, созданных с помощью ИИ, чтобы защитить людей от дискриминации.

Европейская комиссия стремится разработать соглашение об искусственном интеллекте (ИИ) с участием европейских и неевропейских компаний до того, как будут установлены правила, регулирующие эту технологию, отметил еврокомиссар по цифровым технологиям Тьерри Бретон.

Аналогичный подход и у Великобритании. Как сообщает Bloomberg, правительство Великобритании пригласило руководителей некоторых из крупнейших в мире фирм, занимающихся искусственным интеллектом, для обсуждения контроля над ИИ.

"Мы думаем, как мы можем использовать свое положение в качестве мирового лидера в области разработки ИИ, чтобы созвать международное сообщество, чтобы убедиться, что у нас есть какие-то стандарты и основные правила", - заявил министр технологий Британии Пол Скалли.

G7 обсуждают международное регулирование ИИ
Президент Microsoft Брэд Смит заявил, что в развитии искусственного интеллекта его больше всего беспокоят дипфейки - реалистично выглядящие, но ложные видео и изображения. По его словам, люди должны знать, когда фото или видео являются реальными, а когда - созданными ИИ.

В течение нескольких недель законодатели в Вашингтоне обсуждали законы для контроля над ИИ, а компании стремились вывести на рынок все более универсальные нейросети. Смит также призвал установить "защитные тормоза" для управления электросетями, водоснабжением и другой важной инфраструктурой, чтобы люди не потеряли над ними контроль.

Официальные представители стран Большой семерки (G7) встретятся во вторник, 30 мая, чтобы обсудить проблемы, связанные с инструментами генеративного ИИ, такими как ChatGPT.

Как пишет Reuters, лидеры G7, в которую входят США, ЕC и Япония, на прошлой неделе договорились о создании межправительственного форума под названием "Хиросимский процесс искусственного интеллекта" для обсуждения этих целей. Это будет первая рабочая встреча, где рассмотрят такие вопросы, как защита интеллектуальной собственности, дезинформация и управление технологиями.

На состоявшемся на прошлой неделе саммите G7 в Хиросиме лидеры также призвали к разработке и принятию международных технических стандартов, чтобы ИИ оставался "заслуживающим доверия" и "соответствовал общим демократическим ценностям".

Главные опасения заключаются в том, что технологии, которые могут создавать авторитетный и звучащий по-человечески текст, а также генерировать изображения и видео, если им позволить беспрепятственно развиваться, могут стать мощным инструментом дезинформации и политического подрыва.

Всемирная организация здравоохранения заявила, что слишком быстрое внедрение ИИ сопряжено с риском медицинских ошибок, что может подорвать доверие к технологии и задержать ее развитие.

Лидеры G7 признали, что законодательство не поспевает за стремительным развитием ИИ. Они отметили, что хотя новые технологии открывают возможности для развития и инноваций в различных отраслях, их проблемы необходимо рассматривать наряду с преимуществами. Так, главы государств выделили 5 принципов ответственного использования ИИ. По их мнению, новые технологии должны управляться "в соответствии с общими демократическими ценностями, включая подотчётность, безопасность, защиту от онлайн-домогательств, уважение частной жизни и защиту персональных данных".

А что в России?
В России регулирование ИИ тоже является серьезным вопросом, прорабатываемым на законодательном уровне. В ходе круглого стола "Парламентской газеты" под названием "Какие правила должны быть закреплены для использования искусственного интеллекта в России?" эксперты поделились своим видением контроля за новыми технологиями.

Людмила Бокова, проректор Академии социального управления, отметила, что России необходимо принятие стандартов, определяющих взаимодействие технологий между собой. В основном, сейчас это стандарты, касающиеся медицины и образования.

Сергей Наквасин, директор Национального центра развития искусственного интеллекта при правительстве РФ, предупредил, что игнорировать риски нельзя. По его словам, нужно определить возможные виды рисков и создать их классификацию. При этом нужно вводить специальную маркировку, чтобы человек знал, когда применяется ИИ.

Ирина Рукавишникова, первый заместитель председателя Комитета Совета Федерации по конституционному законодательству и государственному строительству, обратила внимание, что цифровой кодекс обсуждается уже не первый год. По ее мнению, необходимо точечно включить использование ИИ в уже имеющуюся структуру прав граждан. Кроме того, необходимо определить ответственность операторов, использующих ИИ и его разработчиков.

Андрей Незнамов полагает, что в интересах России сейчас важно развивать ИИ. По его словам, курс на развитие технологий взят в стране с 2019 года. Он приводит в пример Стэнфордский индекс развития ИИ. Топ-5 стран: США, Китай, Индия, Великобритания и Южная Корея. По словам эксперта, все они больше ориентируются на точечные решения. ИИ внедряется в каждую сферу, и в каждой из них правила уже есть - их можно применять к новым технологиям.

http://www.finam.ru/ (C)
Не является индивидуальной инвестиционной рекомендацией
При копировании ссылка обязательна Нашли ошибку: выделить и нажать Ctrl+Enter