Активируйте JavaScript для полноценного использования elitetrader.ru Проверьте настройки браузера.
ИИ изменит мир, нравится нам это или нет » Элитный трейдер
Элитный трейдер
Искать автора

ИИ изменит мир, нравится нам это или нет

1 мая 2023 Project Syndicate

Есть ли ключ к ответственному развитию искусственного интеллекта (ИИ)? Похоже, уже стало понятно, что, хотим мы этого или нет, но генеративный ИИ изменит наш привычный мир. И в это столь важное для развития современных технологий время общественность должна делать все, чтобы этот процесс приводил к справедливым, равноправным и устойчивым результатам.

За последние месяцы развитие ИИ сильно ускорилось. Модели ИИ, такие как ChatGPT и Midjourney в кратчайшие сроки преобразили широкий спектр профессий и творческих активностей. Но окно возможностей, предназначенное для управления процесса развития этой мощной технологии так, чтобы минимизировать риски и максимизировать преимущества, быстро закрывается.

При этом возможности, связанные с искусственным интеллектом, не перестают появляться. Например, модель генеративного GPT-4 (еще одна версия ChatGPT) - «последнее слово» в таких технологиях. Но, учитывая, что такие системы обладают наибольшими перспективами и могут подразумевать «подводные камни», они заслуживают особенно пристального внимания со стороны государства и частных заинтересованных лиц.

Буквально все технологические преимущества оказывают как позитивное, так и негативное влияние на общество. С одной стороны, они повышают производительность и в целом приводят к росту экономики, расширяя попутно доступ к информации и коммуникациям, а также увеличивая продолжительность жизни граждан и приводя общество к процветанию. С другой стороны, они же вызывают потерю рабочих мест, снижение зарплаты, а также приводят к еще большему неравенству в обществе. И, наконец, все больше ресурсов концентрируется в руках отдельно взятых граждан или корпораций.

Да, генеративный ИИ открывает огромные возможности в таких сферах, как дизайн продуктов, создание контента и даже в фармакологии, например, с его помощью можно открывать новое лекарство и помогать больным людям. Кроме того, ИИ помогает в обучении и сокращении потреблении энергии. Но такие технологии одновременно могут быть деструктивными и даже опасными для экономики и общества.

Риски, которые представляет ИИ, уже налицо. И те из них, которые сейчас отчетливо видны или хотя бы предсказуемы, выглядят существенными. Помимо того, что модели ИИ могут привести к глобальным изменениям на рынке труда, подобные системы еще известны тем, что распространяют ложную информацию, которую со временем могут начать воспринимать как истину. Генеративный ИИ также угрожает усугубить проблему экономического неравенства в обществе. И, наконец, такие технологии могут поставить человечество перед вопросом о его дальнейшем существовании.

Для кого-то все перечисленные риски являются веским основанием для того, чтобы «ударить по тормозам» разработчикам ИИ. В прошлом месяце, напомним, более 1000 человек, включая миллиардера Илона Маска и изобретателя Стива Возняка, подписали открытое письмо, в котором призвали лаборатории, связанные с разработкой ИИ, «немедленно сделать паузу», по крайней мере, на полгода, в процессе «обучения» моделей ИИ, более мощных, чем GPT-4. Подписавшие данное письмо считают, что за время взятой паузы необходимо разработать и внедрить общие протоколы безопасности, которые подвергнуться «тщательной проверке и контролю со стороны независимых внешних экспертов».

Это открытое письмо и дебаты, которое оно вызвало, подчеркнуло срочную необходимость в том, чтобы все заинтересованные лица приняли участие в процессе подготовки надежных принципов разработки и внедрения ИИ. Совместные усилия, в частности, должны учитывать такие проблемы, как безработица и автоматизация процессов на производстве, а также неравенство в использовании современных технологий и концентрацию в одних руках контроля над массивами данных и мощными компьютерами. Но что более важно — это постоянная работа по устранению необъективной информации, которая используется в «обучении» ИИ. Такие модели, как ChatGPT, в будущем не должны воспроизводить ложные сведения и укоренять их в умах людей.

Радует, что в США и Евросоюзе уже начали появляться предложения по работе с моделями ИИ. Свой вклад в это дело также внес Всемирный экономический форум. В 2021 году ВЭФ объявил о создании «Глобальной коалиции по цифровой безопасности», цель которой - объединить всех заинтересованных лиц для борьбы с «вредоносным онлайн-контентом» и ускорить обмен лучшими практиками в регулировании интернет-пространства. Также форум тогда продвигал «цифровое сотрудничество» с тем, чтобы удостовериться, что современные технологии, такие как ИИ, разрабатываются с учетом лучших интересов общества.

В настоящее время участники форума также призывают государства и частных лиц срочно вступать в это сотрудничество для решения проблем, которые сопровождают появление генеративного ИИ, так как существует необходимость в достижении консенсуса относительно следующих шагов по разработке и внедрению таких технологий.

Для того чтобы ускорить прогресс в этом деле ВЭФ в партнерстве с AI Commons, некоммерческой организацией, которую поддерживают специалисты-практики в области ИИ, а также с академическими кругами и неправительственными организациями провел глобальный саммит, посвященный генеративному ИИ, в Сан-Франциско 26-28 апреля. Присутствовавшие на нем обсудили влияние данной технологии на бизнес, общество и всю планету. Они также продумали, как им работать сообща с тем, чтобы уменьшить негативный эффект от ИИ и получать от него больше позитивных результатов. Возможно, такой совместный подход позволит сделать все для того, чтобы этот процесс пересекался с интересами и ценностями людей.

http://www.project-syndicate.org/ (C)
Не является индивидуальной инвестиционной рекомендацией | При копировании ссылка обязательна | Нашли ошибку - выделить и нажать Ctrl+Enter | Отправить жалобу