▪️Deloitte уже возвращает деньги правительству Австралии за отчет, где ИИ насочинял фактов.
▪️В Нью-Йорке двоих адвокатов наказали на $5 тыс. за ссылки на несуществующие дела, любезно подготовленные ChatGPT.
▪️Суд в Калифорнии оштрафовал адвоката Амира Мостафави на $10 тыс. за использование сфабрикованных ChatGPT юридических цитат.
И это только то, что попало в новости. На деле, уверен, таких случаев сотни, и не только в праве или консалтинге, но и в финансах и даже медицине. А там цена ошибки гораздо выше.
Почему ИИ «выдумывает» ответы?
В OpenAI считают так называемые галлюцинации не злым умыслом, а особенностью модели. Она стремится дать хоть какой-то ответ, даже если он неточный. Команда уже учит модели честно говорить «не знаю», но остается вопрос, насколько качественные данные используются для их обучения.
Как жить с этим?
Проверяйте результат. А лучше используйте ИИ как помощника, а не исполнителя. Например, ChatGPT с браузером Atlas отлично подходит, чтобы быстро составить конспект или расшифровать видео. Если же решите попросить ChatGPT, Deepseek и т.д. сделать работу за вас, проверьте результат.
P.S. Помните эксперимент с ИИ-ботами, которые торговали криптой? Там все вышло, мягко говоря, поучительно. Gemini потерял 99.4%, GPT-5 минус 74.3%, DeepSeek минус 2%, и только Qwen3 Max ухитрился заработать 11.9%.
Не является индивидуальной инвестиционной рекомендацией | При копировании ссылка обязательна | Нашли ошибку - выделить и нажать Ctrl+Enter | Жалоба
