10 апреля 2023 BITKOGAN Коган Евгений
На днях чиновник из Австралии обвинил ChatGPT в клевете и намеревается подать в суд. Чат-бот утверждает, что мэр был замешан в скандале со взятками иностранным чиновникам и получил за это срок. Однако в действительности мэр сообщил о взятках и избежал тюрьмы.
Поймать бота на лжи элементарно. Чем более узкой является тема разговора, тем выше вероятность ошибки. С чем же это связано?
В первую очередь, с техническими особенностями работы ИИ и генерации ответа. Эксперты неоднократно отмечали, что ИИ может испытывать галлюцинации.
Может, создатели ИИ прикладывают все силы, чтобы повысить достоверность ответов?🤔
Как бы не так. Тестировщики Google жалуются на недостаток времени на проверку ответов Bard. Это связано с бешеным темпом работ в попытках догнать Microsoft. В такой ситуации, сами понимаете, не до скрупулёзных проверок.
А теперь вспомним, что недавно в сети писали про забавный случай, когда боты от Microsoft и Google ссылались друг на друга, выдавая при этом неверную информацию. Так замыкается круг дезинформации.
С галлюцинациями все понятно, а может ли ИИ лгать умышленно?
Да, такое возможно, но умысел в таком случае будет продиктован теми, кто настраивает алгоритм выдачи информации.
Уже сейчас добавлены всевозможные фильтры для следования современным трендам политкорректности. Если вы попробуете поговорить с ChatGPT на какую-нибудь острую тему и не будете прибегать к ухищрениям, то бот будет выдавать максимально сухую, безэмоциональную информацию. Да, бывают фактические ошибки, но это связано с несовершенством технологии.
Однако это вопрос времени, когда ИИ научат специально искажать факты, чтобы донести “правильную” точку зрения.
И если учитывать, что крупнейшие ИИ-проекты находятся в руках американских корпораций, несложно представить, что такой инструмент захотят использовать для влияния на сознание электората, информационной войны и других благих дел.
Так что, друзья, наслаждайтесь “первобытным” неиспорченным ИИ, пока есть такая возможность.
https://bitkogan.com/ (C)
Не является индивидуальной инвестиционной рекомендацией | При копировании ссылка обязательна | Нашли ошибку - выделить и нажать Ctrl+Enter | Отправить жалобу
Поймать бота на лжи элементарно. Чем более узкой является тема разговора, тем выше вероятность ошибки. С чем же это связано?
В первую очередь, с техническими особенностями работы ИИ и генерации ответа. Эксперты неоднократно отмечали, что ИИ может испытывать галлюцинации.
Может, создатели ИИ прикладывают все силы, чтобы повысить достоверность ответов?🤔
Как бы не так. Тестировщики Google жалуются на недостаток времени на проверку ответов Bard. Это связано с бешеным темпом работ в попытках догнать Microsoft. В такой ситуации, сами понимаете, не до скрупулёзных проверок.
А теперь вспомним, что недавно в сети писали про забавный случай, когда боты от Microsoft и Google ссылались друг на друга, выдавая при этом неверную информацию. Так замыкается круг дезинформации.
С галлюцинациями все понятно, а может ли ИИ лгать умышленно?
Да, такое возможно, но умысел в таком случае будет продиктован теми, кто настраивает алгоритм выдачи информации.
Уже сейчас добавлены всевозможные фильтры для следования современным трендам политкорректности. Если вы попробуете поговорить с ChatGPT на какую-нибудь острую тему и не будете прибегать к ухищрениям, то бот будет выдавать максимально сухую, безэмоциональную информацию. Да, бывают фактические ошибки, но это связано с несовершенством технологии.
Однако это вопрос времени, когда ИИ научат специально искажать факты, чтобы донести “правильную” точку зрения.
И если учитывать, что крупнейшие ИИ-проекты находятся в руках американских корпораций, несложно представить, что такой инструмент захотят использовать для влияния на сознание электората, информационной войны и других благих дел.
Так что, друзья, наслаждайтесь “первобытным” неиспорченным ИИ, пока есть такая возможность.
https://bitkogan.com/ (C)
Не является индивидуальной инвестиционной рекомендацией | При копировании ссылка обязательна | Нашли ошибку - выделить и нажать Ctrl+Enter | Отправить жалобу