14 февраля 2025 Financial One
Появление модели DeepSeek наглядно продемонстрировало, что не стоит безоговорочно верить громким заявлениям об искусственном интеллекте, заявляет Алексей Лукацкий. Реальная ситуация часто отличается от представленной в инвесторских презентациях, а в индустрии сложилось мнение, что добавление приставки AI к названию стартапа увеличивает его оценку на 30%. Это подтверждается примерами американских компаний, таких как OpenAI, которые привлекли значительные инвестиции на волне хайпа вокруг ИИ, что также привело к росту акций Nvidia – единственного производителя чипов, подходящих для обучения мощных моделей, отмечает эксперт.
Однако запрет США на экспорт таких чипов в Китай заставил китайских разработчиков искать альтернативные решения. Китайские модели, такие как DeepSeek, продемонстрировали конкурентоспособность в тестах, после чего появилась модель QWEN, превзошедшая DeepSeek по ряду показателей. Вскоре американские университеты заявили, что им удалось обучить модели, превосходящие как DeepSeek, так и QWEN, всего за несколько долларов.
«Эти события показывают, что конкуренция усиливается не только между США и Китаем, но и со стороны Европы», – отметил Лукацкий.
По словам эксперта Россия пока не заявляла о столь масштабных инвестициях в ИИ, хотя в стране существуют собственные инициативы и концепции развития.
Искусственный интеллект в Даркнете: новые угрозы
Отдельное внимание эксперт уделил применению ИИ в теневом интернете. Он выделил два ключевых направления: обход ограничений в легальных моделях и создание специализированных GPT, обученных на вредоносном контенте.
«Сегодня в даркнете активно разрабатываются так называемые jailbreak-запросы, позволяющие обойти запреты в популярных GPT-моделях», – рассказал Лукацкий.
Например, если напрямую запросить у ChatGPT фишинговый шаблон, он откажет, но если сформулировать запрос в контексте кибербезопасности и антифишинговых симуляций, модель выдаст нужный результат. Подобные методы активно используются киберпреступниками, отмечает эксперт. Также появляются специализированные GPT-модели, созданные для автоматизации мошеннических действий и кибератак.
Дипфейки: инструмент манипуляции и угроз цифровой безопасности
Искусственный интеллект также активно применяется для создания и распространения дипфейков. Эта технология позволяет синтезировать изображения и голоса людей, а при наличии достаточных вычислительных мощностей – создавать реалистичных цифровых аватаров, синхронизирующих речь с движением губ. «Такие инструменты уже используются в мошеннических схемах, включая распространение фейковых заявлений от имени известных политиков, бизнесменов и артистов», – отметил эксперт.
Кроме того, хакеры применяют синтез речи для телефонных мошенничеств, подделывая, например, голос ребенка, чтобы вымогать деньги у его родителей. Лукацкий подчеркнул, что по мере развития технологий дипфейки станут еще более реалистичными, что создаст новые вызовы для системы цифровой безопасности. В России, где активно развивается единая биометрическая система, такие угрозы могут привести к серьезным последствиям, если системы идентификации не будут надежно защищены.
Не является индивидуальной инвестиционной рекомендацией | При копировании ссылка обязательна | Нашли ошибку - выделить и нажать Ctrl+Enter | Жалоба