6 января 2025 ИХ "Финам"
В 2024 году начали распространяться дипфейки, голосовые клоны и фишинговые атаки с использованием искусственного интеллекта. Однако Forbes предупреждает, что для мошенников они стали только «пробой пера». В 2025 году ИИ-мошенничество станет главным трендом, угрожающим финансовой безопасности.
Так, в китайском телеграм-канале, который помогает устанавливать связи работников с боссами-мошенниками в Камбодже, появилось объявление о поиске работы. Молодая женщина опубликовала пять своих фотографий в различных позах с подписью «готова работать ИИ-моделью». Она утверждает, что имеет двухлетний опыт работы «киллером». Этим термином компании, занимающиеся инвестиционным мошенничеством, обозначают своих работников. В объявлении женщины указано, что она хочет получить диплом «ИИ-модели», чтобы ее лицо можно было использовать для создания дипфейков.
Подобные объявления показывают, насколько прочно ИИ укоренился в среде профессиональных мошенников. Она также иллюстрирует, в каком направлении развивается мошенничество.
По данным Центра финансовых услуг Deloitte, к 2027 году генеративный искусственный интеллект позволит сократить убытки на $40 млрд по сравнению с 12,3 млрд в 2023 году. Это 32% среднегодового прироста.
Этот рост привлёк внимание Федерального бюро расследований. В декабре ФБР предупредило, что мошенники используют ИИ для совершения более масштабных преступлений и создания правдоподобных схем.
Мошенничество с использованием ИИ-услуг
Реклама Haotian AI, компании, предоставляющей программное обеспечение для изменения внешности в Telegram, показывает, что они настроены серьёзно, открыто заявляя: «У нас есть команда разработчиков из сотен программистов и десятки серверов».
Реклама продвигает программное обеспечение для дипфейков, которое «трудно отличить невооружённым глазом». Оно предназначено для «звонков за границу». Это идеальный вариант для мошенников, которые хотят сделать любовные аферы более правдоподобными.
В Telegram растёт количество сообщений в криминальных каналах, связанных с искусственным интеллектом и дипфейками, которые используются в мошенничестве. Согласно анализу, проведённому Point Predictive, в 2023 году там было 47 тыс. сообщений, а в 2024 году их количество превысило 350 тыс, увеличившись на 644%.
Учитывая возросшую активность, эксперты по безопасности считают, что в 2025 году в тренде будут схемы мошенничества с использованием ИИ.
1. Большинство мошеннических атак будут связаны с дипфейками
В 2025 году атаки с использованием дипфейков на бизнес-почту могут стать серьёзной угрозой. В двух схемах в Гонконге в этом году мошенники использовали видео и аудио, созданные искусственным интеллектом, чтобы выдавать себя за руководителей компаний во время звонков в Zoom и убеждать сотрудников перевести почти $30 млн.
И это не единичные случаи. ИИ используется повсеместно. Согласно отчёту американской компании Medius, за последний год около 53% бухгалтеров стали жертвами BEC-атак с использованием ИИ-дипфейков.
Другая американская компания, VIPRE Security Group, сообщает, что 40% электронных писем с BEC-атаками теперь полностью генерируются искусственным интеллектом. «По мере развития технологий искусственного интеллекта вероятность BEC-атак растёт в геометрической прогрессии», - предупредил Усман Чоудхари, директор по продуктам и технологиям, в интервью журналу Security Magazine в августе 2024 года.
2. Мошеннические чат-боты с ИИ продолжат распространяться
Известный нигерийский киберпреступник недавно опубликовал видео на своём YouTube-канале. В ролике показан полностью автоматизированный чат-бот, который напрямую общается с жертвой. Жертва считает, что разговаривает со своим возлюбленным - военным врачом, находящимся за границей. На самом деле она разговаривает с чат-ботом, которым управляет мошенник.
Эти чат-боты дают мошенникам возможность свободно общаться с жертвой без акцента, чтобы повысить правдоподобность аферы. Эксперты предупреждают, что в 2025 году использование полностью автономных чат-ботов с искусственным интеллектом станет повсеместным.
3. Операции по «разделке свиней» перейдут на схемы искусственного интеллекта
Представьте себе стену из мобильных телефонов, которые каждую минуту обманывают тысячи жертв по всему миру. Видео в социальных сетях и в Telegram показывают, что теперь это реальность. Это - новая технология, которую мошенники используют для масштабирования операций.
Программное обеспечение с искусственным интеллектом под названием «Автоматические подписчики Instagram (принадлежит Meta, признана в России экстремисткой организацией и запрещена)» рассылает сообщения тысячам людей в минуту, чтобы заманить их в ловушку и заставить участвовать в мошенничестве.
Преступные синдикаты, занимающиеся «забоем свиней», будут использовать технологию дипфейков на основе ИИ для видеозвонков, голосовых клонов и чат-ботов, чтобы значительно расширить свою деятельность в 2025 году.
4. Мошеннические схемы с использованием дипфейков и ИИ будут нацелены на высокопоставленных руководителей
В Сингапуре мошенники недавно организовали схему вымогательства с помощью дипфейков, нацеленную на 100 государственных служащих из 30 правительственных ведомств, включая министров.
В электронном письме содержалось требование заплатить $50 тыс. в криптовалюте или будут опубликованы видео с дипфейками, на которых они были запечатлены в компрометирующих ситуациях. Мошенники создали убедительные фейки, используя общедоступные фотографии из LinkedIn и YouTube.
Поскольку программное обеспечение для дипфейков на основе ИИ становится всё более доступным, подобные схемы вымогательства с помощью дипфейков, скорее всего, распространятся на корпорации по всему миру и будут нацелены на самых высокопоставленных руководителей.
5. Волна дипфейковых финансовых преступлений может захлестнуть США
С января 2024 года в Индии было зарегистрировано более 92 тыс. случаев цифрового фейк-арта, сообщает Indian Express. Эксперты по кибербезопасности предупреждают, что это может стать следующий трендом в сфере мошенничества, который затронет западные страны.
В этих мошеннических схемах люди, выдающие себя за сотрудников федеральных правоохранительных органов, психологически манипулируют жертвами, создавая искусственные юридические проблемы, изолируют их и требуют выкуп или вынуждают жертву перевести им свои сбережения. Иногда мошенники используют видео- и аудиозаписи государственных служащих, чтобы сделать мошенничество более правдоподобным.
Мошенники часто действуют из контор в Мьянме и Камбодже и усовершенствовали свою тактику, используя дипфейки. Согласно статье, опубликованной в BBC, индийским властям удалось отследить 40% новой волны цифровых арестов в Юго-Восточной Азии.
Точно так же, как схемы по «забою свиней» перекочевали в США в 2021 году, некоторые эксперты считают, что в 2025 году в США перекочуют и схемы с цифровыми фейковыми арестами.
Рост числа мошеннических схем с использованием ИИ представляет собой переломный момент в сфере финансовых преступлений. В то время как банки и финтех-компании спешат подготовиться к защите от них, преступники развиваются и действуют быстрее.
С доступным искусственным интеллектом, который можно приобрести всего за $20 в месяц, и стремительным ростом числа мошеннических операций, 2025 год обещает стать поворотным моментом в сфере мошенничества.
Защита от ИИ-мошенничества
Хотя дипфейки, созданные ИИ, помогают мошенникам повысить правдоподобность своих схем, есть и защитные меры, которые может применять обычный человек.
Следует с осторожностью относиться к неожиданным сообщениям, электронным письмам и звонкам, которые создают ощущение срочности или давления, особенно если они поступают от организаций, которым вы доверяете. Если вам звонят из вашего банка и просят предоставить конфиденциальную информацию, просто повесьте трубку и позвоните в банк по номеру службы поддержки клиентов.
Если член семьи срочно звонит и утверждает, что его похитили, просто задайте ему личные вопросы, которые известны только ему. Эксперты также рекомендуют установить «секретные слова» с членами семьи. При срочном звонке или запросе можно использовать это секретное слово, чтобы подтвердить подлинность звонка.
А если вы оказались на странном видеозвонке в Zoom или FaceTime, который, как вам кажется, может быть дипфейком, просто попросите человека встать или помахать рукой перед лицом. Если видео сбоит, это верный признак того, что есть проблемы.
Так, в китайском телеграм-канале, который помогает устанавливать связи работников с боссами-мошенниками в Камбодже, появилось объявление о поиске работы. Молодая женщина опубликовала пять своих фотографий в различных позах с подписью «готова работать ИИ-моделью». Она утверждает, что имеет двухлетний опыт работы «киллером». Этим термином компании, занимающиеся инвестиционным мошенничеством, обозначают своих работников. В объявлении женщины указано, что она хочет получить диплом «ИИ-модели», чтобы ее лицо можно было использовать для создания дипфейков.
Подобные объявления показывают, насколько прочно ИИ укоренился в среде профессиональных мошенников. Она также иллюстрирует, в каком направлении развивается мошенничество.
По данным Центра финансовых услуг Deloitte, к 2027 году генеративный искусственный интеллект позволит сократить убытки на $40 млрд по сравнению с 12,3 млрд в 2023 году. Это 32% среднегодового прироста.
Этот рост привлёк внимание Федерального бюро расследований. В декабре ФБР предупредило, что мошенники используют ИИ для совершения более масштабных преступлений и создания правдоподобных схем.
Мошенничество с использованием ИИ-услуг
Реклама Haotian AI, компании, предоставляющей программное обеспечение для изменения внешности в Telegram, показывает, что они настроены серьёзно, открыто заявляя: «У нас есть команда разработчиков из сотен программистов и десятки серверов».
Реклама продвигает программное обеспечение для дипфейков, которое «трудно отличить невооружённым глазом». Оно предназначено для «звонков за границу». Это идеальный вариант для мошенников, которые хотят сделать любовные аферы более правдоподобными.
В Telegram растёт количество сообщений в криминальных каналах, связанных с искусственным интеллектом и дипфейками, которые используются в мошенничестве. Согласно анализу, проведённому Point Predictive, в 2023 году там было 47 тыс. сообщений, а в 2024 году их количество превысило 350 тыс, увеличившись на 644%.
Учитывая возросшую активность, эксперты по безопасности считают, что в 2025 году в тренде будут схемы мошенничества с использованием ИИ.
1. Большинство мошеннических атак будут связаны с дипфейками
В 2025 году атаки с использованием дипфейков на бизнес-почту могут стать серьёзной угрозой. В двух схемах в Гонконге в этом году мошенники использовали видео и аудио, созданные искусственным интеллектом, чтобы выдавать себя за руководителей компаний во время звонков в Zoom и убеждать сотрудников перевести почти $30 млн.
И это не единичные случаи. ИИ используется повсеместно. Согласно отчёту американской компании Medius, за последний год около 53% бухгалтеров стали жертвами BEC-атак с использованием ИИ-дипфейков.
Другая американская компания, VIPRE Security Group, сообщает, что 40% электронных писем с BEC-атаками теперь полностью генерируются искусственным интеллектом. «По мере развития технологий искусственного интеллекта вероятность BEC-атак растёт в геометрической прогрессии», - предупредил Усман Чоудхари, директор по продуктам и технологиям, в интервью журналу Security Magazine в августе 2024 года.
2. Мошеннические чат-боты с ИИ продолжат распространяться
Известный нигерийский киберпреступник недавно опубликовал видео на своём YouTube-канале. В ролике показан полностью автоматизированный чат-бот, который напрямую общается с жертвой. Жертва считает, что разговаривает со своим возлюбленным - военным врачом, находящимся за границей. На самом деле она разговаривает с чат-ботом, которым управляет мошенник.
Эти чат-боты дают мошенникам возможность свободно общаться с жертвой без акцента, чтобы повысить правдоподобность аферы. Эксперты предупреждают, что в 2025 году использование полностью автономных чат-ботов с искусственным интеллектом станет повсеместным.
3. Операции по «разделке свиней» перейдут на схемы искусственного интеллекта
Представьте себе стену из мобильных телефонов, которые каждую минуту обманывают тысячи жертв по всему миру. Видео в социальных сетях и в Telegram показывают, что теперь это реальность. Это - новая технология, которую мошенники используют для масштабирования операций.
Программное обеспечение с искусственным интеллектом под названием «Автоматические подписчики Instagram (принадлежит Meta, признана в России экстремисткой организацией и запрещена)» рассылает сообщения тысячам людей в минуту, чтобы заманить их в ловушку и заставить участвовать в мошенничестве.
Преступные синдикаты, занимающиеся «забоем свиней», будут использовать технологию дипфейков на основе ИИ для видеозвонков, голосовых клонов и чат-ботов, чтобы значительно расширить свою деятельность в 2025 году.
4. Мошеннические схемы с использованием дипфейков и ИИ будут нацелены на высокопоставленных руководителей
В Сингапуре мошенники недавно организовали схему вымогательства с помощью дипфейков, нацеленную на 100 государственных служащих из 30 правительственных ведомств, включая министров.
В электронном письме содержалось требование заплатить $50 тыс. в криптовалюте или будут опубликованы видео с дипфейками, на которых они были запечатлены в компрометирующих ситуациях. Мошенники создали убедительные фейки, используя общедоступные фотографии из LinkedIn и YouTube.
Поскольку программное обеспечение для дипфейков на основе ИИ становится всё более доступным, подобные схемы вымогательства с помощью дипфейков, скорее всего, распространятся на корпорации по всему миру и будут нацелены на самых высокопоставленных руководителей.
5. Волна дипфейковых финансовых преступлений может захлестнуть США
С января 2024 года в Индии было зарегистрировано более 92 тыс. случаев цифрового фейк-арта, сообщает Indian Express. Эксперты по кибербезопасности предупреждают, что это может стать следующий трендом в сфере мошенничества, который затронет западные страны.
В этих мошеннических схемах люди, выдающие себя за сотрудников федеральных правоохранительных органов, психологически манипулируют жертвами, создавая искусственные юридические проблемы, изолируют их и требуют выкуп или вынуждают жертву перевести им свои сбережения. Иногда мошенники используют видео- и аудиозаписи государственных служащих, чтобы сделать мошенничество более правдоподобным.
Мошенники часто действуют из контор в Мьянме и Камбодже и усовершенствовали свою тактику, используя дипфейки. Согласно статье, опубликованной в BBC, индийским властям удалось отследить 40% новой волны цифровых арестов в Юго-Восточной Азии.
Точно так же, как схемы по «забою свиней» перекочевали в США в 2021 году, некоторые эксперты считают, что в 2025 году в США перекочуют и схемы с цифровыми фейковыми арестами.
Рост числа мошеннических схем с использованием ИИ представляет собой переломный момент в сфере финансовых преступлений. В то время как банки и финтех-компании спешат подготовиться к защите от них, преступники развиваются и действуют быстрее.
С доступным искусственным интеллектом, который можно приобрести всего за $20 в месяц, и стремительным ростом числа мошеннических операций, 2025 год обещает стать поворотным моментом в сфере мошенничества.
Защита от ИИ-мошенничества
Хотя дипфейки, созданные ИИ, помогают мошенникам повысить правдоподобность своих схем, есть и защитные меры, которые может применять обычный человек.
Следует с осторожностью относиться к неожиданным сообщениям, электронным письмам и звонкам, которые создают ощущение срочности или давления, особенно если они поступают от организаций, которым вы доверяете. Если вам звонят из вашего банка и просят предоставить конфиденциальную информацию, просто повесьте трубку и позвоните в банк по номеру службы поддержки клиентов.
Если член семьи срочно звонит и утверждает, что его похитили, просто задайте ему личные вопросы, которые известны только ему. Эксперты также рекомендуют установить «секретные слова» с членами семьи. При срочном звонке или запросе можно использовать это секретное слово, чтобы подтвердить подлинность звонка.
А если вы оказались на странном видеозвонке в Zoom или FaceTime, который, как вам кажется, может быть дипфейком, просто попросите человека встать или помахать рукой перед лицом. Если видео сбоит, это верный признак того, что есть проблемы.
Не является индивидуальной инвестиционной рекомендацией | При копировании ссылка обязательна | Нашли ошибку - выделить и нажать Ctrl+Enter | Жалоба