25 сентября 2019 BitCryptoNews
Новейшие технологии вносят в нашу жизнь удобство, восхищение и массу положительных эмоций, однако мы обязаны соблюдать бдительность из-за возможных негативных последствий использования инноваций. Вашему вниманию предоставлен список из 7 самых опасных технологических тенденций, которые уже проявили свою темную сторону.
Поддельные новости
«Пропаганда – это искусство сфотографировать черта без копыт и рогов».
Ханс Каспер (1916 – 1990) − немецкий писатель и автор радиопостановок.
В мировых СМИ неуклонно растет количество программ вроде GROVER − системы искусственного интеллекта, способной написать поддельную новостную статью на любую тему. Такие программы генерируют более правдоподобные статьи, чем это делают копирайтеры. Секрет в том, что AI обрабатывает большие объемы данных и подкрепляет свои статьи фактами, о которых человек не всегда даже может догадаться.
Наиболее успешной в этом направлении стала некоммерческая компания OpenAI, поддерживаемая Элоном Маском. Результаты работы OpenAI настолько хороши, что организация сначала решила не публиковать результаты исследований публично, чтобы предотвратить опасное неправильное использование технологии. Главная опасность правдоподобных фейковых новостей заключается в том, что их качество может обмануть даже критически мыслящих людей, не подверженных промыванию мозга пропагандой.
Рои дронов
Самый громким примером негативного использования дронов стала их недавняя атака на нефтяные платформы Саудовской Аравии, ущерб от которой составил сотни миллиардов долларов. В результате атаки мировые запасы нефти опустели примерно на 5%, но удобство использования беспилотников для проведения военных операций говорит о том, что подобные ситуации будут происходить и дальше.
Рой дронов может организовываться для достижения цели посредством взаимодействия друг с другом, создавая новый вид сверхопасного оружия. На данный момент технология еще находится на стадии экспериментов, но реальность роя, который сможет координировать свое поведение для достижения самых сложных военных задач, приближается к действительности.
Шпионаж устройств умного дома
Чтобы устройства «умного дома» могли отвечать на запросы и быть максимально полезными, они должны быть оснащены микрофонами для прослушивания голосовых команд. Когда человек устанавливает в своей комнате умную колонку, он также расписывается в том, что теперь в его доме живет еще и маленький скрупулезный шпион, который не пропускает мимо своих ушей ни единого слова.
Все интеллектуальные устройства собирают информацию о привычках и предпочтениях, месте жительства и маршрутах передвижения, времени прибытия и ухода из дома. Эта информация делает жизнь более удобной, но существует и вероятность злоупотребления данными. Воры и мошенники активно работают над инструментами, которые позволят им завладеть всей собранной информацией. В случае успешного взлома личных данных с облачных серверов Amazon, Google, Yandex или любой другой платформы искусственного интеллекта, злоумышленники получат всю необходимую информацию для шантажа или кражи уже настоящих вещей из дома.
Одним из самых громких скандалов в этом направлении стало прослушивание сотрудниками Amazon записей разговоров их клиентов с умной колонкой Amazon Echo весной текущего года. Очевидно, что сотрудники Amazon не должны использовать полученную информацию для корыстных целей, но гарантировать этого никто не может.
Распознавание лица благодаря видеокамерам
Производитель смартфонов Huawei в прошлом году обвинялся в использовании технологий распознавания лица для слежки и расового профилирования, а также передаче ключей доступа к иностранным сетям китайской разведке.
Миллионы камер на смартфонах и ноутбуках используются для отслеживания и распознавания людей не только в КНР – подобная практика была замечена чуть ли не в каждой стране мира. Различие заключается лишь в том, что где-то это удалось доказать (дело Сноудена в США), а где-то – нет.
AI-клонирование
Искусственный интеллект способен генерировать фразы голосом любого человека. Для этого достаточно всего одного фрагмента аудиозаписи с его голосом. Похожим образом ИИ может создать видео с любым человеком, которое будет выглядеть естественно и правдоподобно. Негативные последствия таких видео и аудиозаписей обширны: от взлома банковских счетов до шантажа и политических скандалов.
Deepfake использует картирование лица, машинное обучение и искусственный интеллект для создания моделей поведения. В качестве исходных данных для генерации фейка выступают разные формы лица человека, получить которые легче из большого массива записей. Раньше такие объемы данных в открытом доступе были свойственны только знаменитостям, но социальные сети изменили это. Теперь обычные люди загружают гигабайты любительских видео с собой, предоставляя мастерам из Deepfake все необходимые исходники для обработки.
Наиболее успешно с выявлением фейковых видео справляется программа, созданная в университете Беркли.
Вирусы и фишинг в сочетании с ИИ
Искусственный интеллект очень сильно упрощает работу фишинговым сетям, которым необходим эффективный инструмент автоматизации и масштабирования объема работ. ИИ помогает злоумышленникам лучше находить «слабые» почтовые адреса и аккаунты в социальных сетях, точнее составлять тексты вирусных писем-удочек, эффективнее обходить антивирусное ПО и, самое важное, собирать деньги в автоматизированном режиме без риска отслеживания правоохранительными органами. В последние годы вывод денежных средств намного чаще стал проводиться с помощью криптовалют.
Умная пыль
Микроэлектромеханические системы (MEMS) отличаются микроскопическими размерами вплоть до песчаной крупы. Самая маленькая деталь умной пыли называется мотом. Мот – это датчик, который обладает собственным вычислительным узлом, сенсорами, системами питания и передачи данных. Моты могут объединяться с другими пылинками, образуя то, что называют умной пылью. Такие системы уже применяются злоумышленниками в промышленных масштабах в тех случаях, когда необходимо максимально скрыть слежку.
https://bitcryptonews.ru/ (C)
Не является индивидуальной инвестиционной рекомендацией | При копировании ссылка обязательна | Нашли ошибку - выделить и нажать Ctrl+Enter | Отправить жалобу
Поддельные новости
«Пропаганда – это искусство сфотографировать черта без копыт и рогов».
Ханс Каспер (1916 – 1990) − немецкий писатель и автор радиопостановок.
В мировых СМИ неуклонно растет количество программ вроде GROVER − системы искусственного интеллекта, способной написать поддельную новостную статью на любую тему. Такие программы генерируют более правдоподобные статьи, чем это делают копирайтеры. Секрет в том, что AI обрабатывает большие объемы данных и подкрепляет свои статьи фактами, о которых человек не всегда даже может догадаться.
Наиболее успешной в этом направлении стала некоммерческая компания OpenAI, поддерживаемая Элоном Маском. Результаты работы OpenAI настолько хороши, что организация сначала решила не публиковать результаты исследований публично, чтобы предотвратить опасное неправильное использование технологии. Главная опасность правдоподобных фейковых новостей заключается в том, что их качество может обмануть даже критически мыслящих людей, не подверженных промыванию мозга пропагандой.
Рои дронов
Самый громким примером негативного использования дронов стала их недавняя атака на нефтяные платформы Саудовской Аравии, ущерб от которой составил сотни миллиардов долларов. В результате атаки мировые запасы нефти опустели примерно на 5%, но удобство использования беспилотников для проведения военных операций говорит о том, что подобные ситуации будут происходить и дальше.
Рой дронов может организовываться для достижения цели посредством взаимодействия друг с другом, создавая новый вид сверхопасного оружия. На данный момент технология еще находится на стадии экспериментов, но реальность роя, который сможет координировать свое поведение для достижения самых сложных военных задач, приближается к действительности.
Шпионаж устройств умного дома
Чтобы устройства «умного дома» могли отвечать на запросы и быть максимально полезными, они должны быть оснащены микрофонами для прослушивания голосовых команд. Когда человек устанавливает в своей комнате умную колонку, он также расписывается в том, что теперь в его доме живет еще и маленький скрупулезный шпион, который не пропускает мимо своих ушей ни единого слова.
Все интеллектуальные устройства собирают информацию о привычках и предпочтениях, месте жительства и маршрутах передвижения, времени прибытия и ухода из дома. Эта информация делает жизнь более удобной, но существует и вероятность злоупотребления данными. Воры и мошенники активно работают над инструментами, которые позволят им завладеть всей собранной информацией. В случае успешного взлома личных данных с облачных серверов Amazon, Google, Yandex или любой другой платформы искусственного интеллекта, злоумышленники получат всю необходимую информацию для шантажа или кражи уже настоящих вещей из дома.
Одним из самых громких скандалов в этом направлении стало прослушивание сотрудниками Amazon записей разговоров их клиентов с умной колонкой Amazon Echo весной текущего года. Очевидно, что сотрудники Amazon не должны использовать полученную информацию для корыстных целей, но гарантировать этого никто не может.
Распознавание лица благодаря видеокамерам
Производитель смартфонов Huawei в прошлом году обвинялся в использовании технологий распознавания лица для слежки и расового профилирования, а также передаче ключей доступа к иностранным сетям китайской разведке.
Миллионы камер на смартфонах и ноутбуках используются для отслеживания и распознавания людей не только в КНР – подобная практика была замечена чуть ли не в каждой стране мира. Различие заключается лишь в том, что где-то это удалось доказать (дело Сноудена в США), а где-то – нет.
AI-клонирование
Искусственный интеллект способен генерировать фразы голосом любого человека. Для этого достаточно всего одного фрагмента аудиозаписи с его голосом. Похожим образом ИИ может создать видео с любым человеком, которое будет выглядеть естественно и правдоподобно. Негативные последствия таких видео и аудиозаписей обширны: от взлома банковских счетов до шантажа и политических скандалов.
Deepfake использует картирование лица, машинное обучение и искусственный интеллект для создания моделей поведения. В качестве исходных данных для генерации фейка выступают разные формы лица человека, получить которые легче из большого массива записей. Раньше такие объемы данных в открытом доступе были свойственны только знаменитостям, но социальные сети изменили это. Теперь обычные люди загружают гигабайты любительских видео с собой, предоставляя мастерам из Deepfake все необходимые исходники для обработки.
Наиболее успешно с выявлением фейковых видео справляется программа, созданная в университете Беркли.
Вирусы и фишинг в сочетании с ИИ
Искусственный интеллект очень сильно упрощает работу фишинговым сетям, которым необходим эффективный инструмент автоматизации и масштабирования объема работ. ИИ помогает злоумышленникам лучше находить «слабые» почтовые адреса и аккаунты в социальных сетях, точнее составлять тексты вирусных писем-удочек, эффективнее обходить антивирусное ПО и, самое важное, собирать деньги в автоматизированном режиме без риска отслеживания правоохранительными органами. В последние годы вывод денежных средств намного чаще стал проводиться с помощью криптовалют.
Умная пыль
Микроэлектромеханические системы (MEMS) отличаются микроскопическими размерами вплоть до песчаной крупы. Самая маленькая деталь умной пыли называется мотом. Мот – это датчик, который обладает собственным вычислительным узлом, сенсорами, системами питания и передачи данных. Моты могут объединяться с другими пылинками, образуя то, что называют умной пылью. Такие системы уже применяются злоумышленниками в промышленных масштабах в тех случаях, когда необходимо максимально скрыть слежку.
https://bitcryptonews.ru/ (C)
Не является индивидуальной инвестиционной рекомендацией | При копировании ссылка обязательна | Нашли ошибку - выделить и нажать Ctrl+Enter | Отправить жалобу