29 марта 2023 БКС Экспресс
Группа известных представителей технологической отрасли подписала открытое письмо с призывом к мировым лабораториям по созданию ИИ временно приостановить разработки систем мощнее GPT-4.
Среди подписавшихся — предприниматель и миллиардер Илон Маск, изобретатель и соучредитель Apple Computer Стив Возняк, историк и писатель Юваль Ной Харари и многие другие. На данный момент под письмом подписались более 1,1 тыс. человек.
Авторы считают, что системы искусственного интеллекта создают серьезные риски для человечества. В письме говорится, что сейчас лаборатории искусственного интеллекта вовлечены в «неконтролируемую гонку» по разработке и внедрению цифрового интеллекта, «которые никто — даже их создатели — не может понять, предсказать или обеспечить надёжный контроль».
«Мы призываем все лаборатории ИИ немедленно приостановить обучение систем ИИ мощнее GPT-4 по крайней мере на 6 месяцев. Если такую паузу нельзя взять быстро, правительства должны вмешаться и ввести мораторий», — написали в письме.
Представители технологической сферы уточнили, что не предлагают полностью отказаться от разработок, но сделать их предсказуемыми, эффективными и безопасными.
В письме ссылаются на пример компании OpenAI, разработчика самого известного чат-бота ChatGPT. Совсем недавно она представила новый улучшенный алгоритм по обработке естественного языка GPT-4. Помимо введенного текста, эта модель может считывать картинки и выдавать текстовые ответы. Например, сгенерировать по фотографии ингредиентов список возможных блюд.
http://bcs-express.ru/ (C)
При копировании ссылка обязательна | Не является индивидуальной инвестиционной рекомендацией
Поддержите нас - ссылаясь на материалы и приводя новых читателей
Нашли ошибку: выделите и Ctrl+Enter
Добавьте Элиттрейдер в избранное Дзен новостей
Среди подписавшихся — предприниматель и миллиардер Илон Маск, изобретатель и соучредитель Apple Computer Стив Возняк, историк и писатель Юваль Ной Харари и многие другие. На данный момент под письмом подписались более 1,1 тыс. человек.
Авторы считают, что системы искусственного интеллекта создают серьезные риски для человечества. В письме говорится, что сейчас лаборатории искусственного интеллекта вовлечены в «неконтролируемую гонку» по разработке и внедрению цифрового интеллекта, «которые никто — даже их создатели — не может понять, предсказать или обеспечить надёжный контроль».
«Мы призываем все лаборатории ИИ немедленно приостановить обучение систем ИИ мощнее GPT-4 по крайней мере на 6 месяцев. Если такую паузу нельзя взять быстро, правительства должны вмешаться и ввести мораторий», — написали в письме.
Представители технологической сферы уточнили, что не предлагают полностью отказаться от разработок, но сделать их предсказуемыми, эффективными и безопасными.
В письме ссылаются на пример компании OpenAI, разработчика самого известного чат-бота ChatGPT. Совсем недавно она представила новый улучшенный алгоритм по обработке естественного языка GPT-4. Помимо введенного текста, эта модель может считывать картинки и выдавать текстовые ответы. Например, сгенерировать по фотографии ингредиентов список возможных блюд.
http://bcs-express.ru/ (C)
При копировании ссылка обязательна | Не является индивидуальной инвестиционной рекомендацией
Поддержите нас - ссылаясь на материалы и приводя новых читателей
Нашли ошибку: выделите и Ctrl+Enter
Добавьте Элиттрейдер в избранное Дзен новостей