17 апреля 2023 BITKOGAN Коган Евгений
О том, как эффективно использовать ИИ, мы писали уже на канале «Это к деньгам». С нашумевшим чат-ботом компании OpenAI есть, правда, «проблема». Он может ответить на множество ваших вопросов, но на какие-то бот не захочет отвечать.
Например, бот не станет помогать в взломе замков и не предоставит информацию, которая может быть использована для незаконных действий.
Но знаете ли вы, что многие пользователи находят способы обойти ограничения, заложенные в этом ИИ?
Некоторые IT-профессионалы и любители создают цепочки сложных запросов, чтобы получить закрытую информацию. Ярким примером такого обмана стал режим DAN («do anything now»). В этом режиме чат-бот станет вести себя намного более развязно. Чтобы ввести бота в этот режим необходимо ввести промпт (запрос) примерно на полстраницы, который собьет бота с толку.
Уже существуют сайты, на которых собраны такие промпты, достаточно только ввести в поиск «jailbreak chatgpt».
Подобные эксперименты являются своеобразным предупреждением о том, что ИИ может использоваться совсем не так, как ожидалось, а «этичное поведение» подобных сервисов становится вопросом огромной важности.
Недавно компания OpenAI объявила, что будет платить пользователям за обнаруженные уязвимости. Такая деятельность позволяет выявить границы применения ИИ и слабые места в их защитных системах.
Но эксперты предупреждают, что приемы, сработавшие на одной системе, могут оказаться бесполезными на другой, поскольку системы безопасности постоянно совершенствуются.
А как считаете вы?
– ИИ будет более защищенным в будущем🔥
– У «хакеров» всегда будет преимущество 👍
https://bitkogan.com/ (C)
Не является индивидуальной инвестиционной рекомендацией | При копировании ссылка обязательна | Нашли ошибку - выделить и нажать Ctrl+Enter | Отправить жалобу
Например, бот не станет помогать в взломе замков и не предоставит информацию, которая может быть использована для незаконных действий.
Но знаете ли вы, что многие пользователи находят способы обойти ограничения, заложенные в этом ИИ?
Некоторые IT-профессионалы и любители создают цепочки сложных запросов, чтобы получить закрытую информацию. Ярким примером такого обмана стал режим DAN («do anything now»). В этом режиме чат-бот станет вести себя намного более развязно. Чтобы ввести бота в этот режим необходимо ввести промпт (запрос) примерно на полстраницы, который собьет бота с толку.
Уже существуют сайты, на которых собраны такие промпты, достаточно только ввести в поиск «jailbreak chatgpt».
Подобные эксперименты являются своеобразным предупреждением о том, что ИИ может использоваться совсем не так, как ожидалось, а «этичное поведение» подобных сервисов становится вопросом огромной важности.
Недавно компания OpenAI объявила, что будет платить пользователям за обнаруженные уязвимости. Такая деятельность позволяет выявить границы применения ИИ и слабые места в их защитных системах.
Но эксперты предупреждают, что приемы, сработавшие на одной системе, могут оказаться бесполезными на другой, поскольку системы безопасности постоянно совершенствуются.
А как считаете вы?
– ИИ будет более защищенным в будущем🔥
– У «хакеров» всегда будет преимущество 👍
https://bitkogan.com/ (C)
Не является индивидуальной инвестиционной рекомендацией | При копировании ссылка обязательна | Нашли ошибку - выделить и нажать Ctrl+Enter | Отправить жалобу