Активируйте JavaScript для полноценного использования elitetrader.ru Проверьте настройки браузера.
Искусственный интеллект научит деградировать » Элитный трейдер
Элитный трейдер
Искать автора

Искусственный интеллект научит деградировать

2 ноября 2024 ИХ "Финам" Братерский Александр
Руководитель акселератора стартапов Y Combinator Пол Грэм полагает, что из-за стремительного развития нейросетей в ближайшие 20 лет люди будут стремительно деградировать. Предприниматель один из многих, кто говорит об опасности ИИ. Ученые исследователи отмечают, что родители уже больше доверяют чатам искусственного интеллекта, чем советам профессиональных врачей. Свой негатив по поводу распространения ИИ различных радикальных идей высказывает и Илон Маск. Правда, СМИ уличили бизнесмена в том, что, критикуя одни системы, он продвигает свою и надеется заниматься ИИ в случае получения поста в Белом доме.

Из-за стремительного развития нейросетей большинство вскоре разучится читать, писать и ясно мыслить, отмечает Грэм в статье, опубликованной на его собственном сайте. «В результате мир будет разделен на пишущих и тех, кто не пишет. Еще найдутся люди, которые смогут писать. Некоторым из нас это нравится. Но золотая середина между теми, кто хорошо пишет, и теми, кто писать вообще не умеет, исчезнет. Вместо хороших писателей, хороших авторов и людей, которые не умеют писать, будут просто хорошие авторы и люди, которые не умеют писать», - пишет Грэм.

Этот прогноз кажется предсказаниями писателя фантаста, но сегодня все больше предпринимателей и общественных деятелей говорят об опасности неконтролируемого использования ИИ.

Согласно исследованию ученых из Университета штата Канзас, родители считают, что текст, сгенерированный ИИ, заслуживает больше доверия, чем рекомендация врача. «Когда мы начали это исследование (это было сразу после запуска ChatGPT), у нас были опасения по поводу того, как родители будут использовать этот новый, простой метод для сбора информации о здоровье своих детей», — рассказала СМИ ведущий автор и аспирант Калисса Лесли-Миллер.

В исследовании приняли участие 116 родителей в возрасте от 18 до 65 лет. После знакомства с рядом медицинских советов родители в большинстве случаев не смогли определить, какой контент был создан ChatGPT, а какой - экспертами. ChatGPT оценивался как более заслуживающий доверия, точный и надежный, чем контент, который был создан медицинскими экспертами.

Совет по надзору за финансовой стабильностью США в своем годовом отчете в 2023 году впервые назвал ИИ риском для финансовой системы. Эксперты отметили, что растущее использование ИИ в финансовых услугах является «уязвимостью», которую следует отслеживать. Во время своей речи в мае на саммите, посвященном ИИ, первый заместитель управляющего директора МВФ Гита Гопинат отметила, что не стоит забывать о том, что использование ИИ может усилить следующую рецессию. По словам эксперта, из-за широкого внедрения ИИ технологии могут превратить обычный рыночный спад в гораздо более глубокий экономический кризис, разрушив рынки труда, финансовые рынки и цепочки поставок.

Однако глава по стратегии швейцарского LGT банка Себастьян Петрик считает иначе. В своей статье, опубликованной на сайте Всемирного экономического форума в Давосе, он отметил, что ИИ сможет наоборот предупреждать появление финансовых кризисов. «Исследуя обширные наборы данных, ИИ может иметь возможность выявлять закономерности, которые предсказывают финансовые кризисы до того, как они произойдут, и принимать упреждающие меры для их смягчения или даже предотвращения. Это происходит потому, что инновации в машинном обучении значительно улучшили возможности ИИ анализировать финансовые данные», - пишет автор, напоминая о том, что «передовые алгоритмы могут выявлять сложные корреляции и аномалии».

Одна из главных проблем, о которых говорят экономисты и футурологи, — это большое влияние ИИ на рынок труда. Замглавы МВФ Гопинат сослалась в своей речи на исследование, где говорится, что в развитых экономиках 30% рабочих мест подвергаются высокому риску замены ИИ по сравнению с 20% на развивающихся рынках и 18% в странах с низкими доходами.

Страх потери работы уже заставляет многих говорить о новых «луддитах». Так называли рабочих, которые разрушали станки во время промышленной революции в Англии. Исследователь ИИ, писатель-футуролог Рэй Курцвейл предупреждал в своих работах, что 2029 год станет знаковым для развития систем искусственного интеллекта. По словам автора, его развитие достигнет способности наиболее «квалифицированных специалистов в конкретной области».

«Может пройти еще несколько лет после 2029 года, когда ИИ еще не превзойдет лучших людей в некоторых ключевых навыках, таких как написание оскароносных сценариев или создание глубоких новых философских идей, хотя и это произойдет», - рассказывал автор в интервью британской Guardian.

Впрочем, спасение все же есть. Учёными Массачусетского технологического института было изучено 1000 различных задач, связанных с визуальным осмотром товаров. Всего исследованию подверглось 800 различных профессий, в том числе в таких областях как проверка качества товаров или продуктов. Ученые обнаружили, что лишь 23% фондов зарплаты можно было бы потратить на автоматизацию производства, главным образом из-за «больших первоначальных затрат на системы искусственного интеллекта».

Все это, как пишет журнал Fortune со ссылкой на исследование, может быть сделано при условии, что автоматизируемые задачи вообще можно было бы «отделить от других частей» рабочих мест. «В целом, наши результаты показывают, что сокращение рабочих мест ИИ будет существенным, но в то же время постепенным – и, следовательно, есть пространство для политики и переподготовки кадров для смягчения последствий безработицы», – свидетельствуют ученые.

Но бизнесмен Илон Маск, известный своими идеями по контролю за ИИ, уже бьет тревогу. Как отмечает предприниматель, есть от 10% до 20% шансов того, что ИИ «испортится» и будет наносить вред человечеству. При этом, как напоминают СМИ, Маск и сам в настоящее время создает свой собственный стартап в области ИИ.

Критика Маска нацелена на ChatGPT, который, как он подозревает, покровительствует так называемому движению воукизма (от англ. woke – проснуться). Так в США называют радикальную левую повестку, связанную с защитой прав меньшинств в различных областях. «Многие системы ИИ, которые проходят обучение в Сан-Франциско, перенимают философию окружающих их людей. И то, что вы получаете в итоге, есть нигилистическая философия воукизма, встроенная в системы ИИ».

«Хотя Маск и сам является поляризующей общество фигурой, он прав насчет систем искусственного интеллекта, которые питают политические предубеждения. Проблема, однако, далека от односторонней, и формулировка Маска может способствовать продвижению его собственных интересов, благодаря его связям с Трампом», - пишет журнал Wired, авторитетное издание о технологиях. Журнал также отмечает, что нападки Маска связаны с его собственным ИИ-проектом xAI, конкурентом систем OpenAI, Google и Meta (организация признана экстремистской и запрещена в РФ). Все они, как пишет издание, в случае победы Дональда Трампа рискуют «стать мишенью для правительства».

Трамп, действительно, обещал Маску правительственный пост в случае своей победы. Свои предложения в области ИИ есть и у команды Камалы Харрис, которая, как ожидается, сосредоточиться на выполнении директивы нынешней администрации Джо Байдена о расширении Национального исследовательского ресурса в области искусственного интеллекта. Он поддерживает стартапы и исследователей, работающих в этой области, пишет издание Business Insider.

«И восстали машины из пепла ядерного огня, и пошла война на уничтожения человечества. И шла она десятилетия, но последнее сражение состоится не в будущем, оно состоится здесь, в наше время...», - эти слова из одного из фильмов о «Терминаторе», хорошо иллюстрируют проблему бесконтрольного развития ИИ. Как известно, Терминатор стал «хорошим» и помогал людям. Удастся ли добиться того, чтобы ИИ оставался «хорошим» всегда, - большой вопрос.

http://www.finam.ru/ (C)
Не является индивидуальной инвестиционной рекомендацией | При копировании ссылка обязательна | Нашли ошибку - выделить и нажать Ctrl+Enter | Отправить жалобу