www.machinelearningmastery.ru

Машинное обучение, нейронные сети, искусственный интеллект
Header decor

Home

Машинное обучение для киберпреступников 101

Дата публикации Oct 25, 2018

ID 78201212 © Хуан Мойяно | Dreamstime.com

Машинное обучение (ML) и искусственный интеллект (AI) штурмуют кибербезопасность и другие области техники, и вы можете легко найти много информации об использовании ML обоими лагерями - обороной и кибератаками.

Что еще более важно, ИИ не застрахован от атак, и вы можете читатьВотмоя новая статья об этом.

Использование машинного обучения для кибератак остается неоднозначным. Однако в 2016 году разведывательное сообщество США выразило обеспокоенность по поводу использования искусственного интеллекта, что создает потенциальную угрозу кибербезопасности. Недавние результаты показывают, как киберпреступники могут использовать машинное обучение для более совершенных, более быстрых атак.

Хотя моя предыдущая статьяМашинное обучение для киберпреступников 101«ИИ для защиты», пришло время заняться машинным обучением для киберпреступников. Здесь я систематизирую информацию о возможных или существующих методах развертывания машинного обучения в вредоносном киберпространстве. Этот текст предназначен для того, чтобы помочь командам информационной безопасности подготовиться к неизбежным угрозам.

Задачи киберпреступников

Действия злоумышленников разделены на 5 групп задач высокого уровня, которые может решить машинное обучение.

  1. Сбор информации - подготовка к атаке;
  2. Олицетворение - попытка подражать доверенное лицо;
  3. Несанкционированный доступ - обход ограничений для получения доступа к некоторым ресурсам или учетным записям пользователей;
  4. Атака - выполнение реальной атаки, такой как вредоносное ПО или DDoS;
  5. Автоматизация - автоматизация эксплуатации и пост-эксплуатации.

Машинное обучение для сбора информации

Сбор информации - это первый шаг каждого кибератака, независимо от количества жертв. Чем лучше вы собираете информацию, тем больше у вас шансов на успех.

Информация может быть организована в группы по темам и может быть собрана онлайн и офлайн. Информация может относиться к людям или активам. Давайте посмотрим на все эти категории.

ML для сбора информации о людях онлайн

Как и в случае фишинга или подготовки к заражению, хакеры могут использовать алгоритмы классификации, чтобы охарактеризовать потенциальную жертву как принадлежащую к соответствующей группе. Это означает, что после сбора тысяч электронных писем хакер рассылает вредоносное ПО только тем, кто щелкнет по ссылке. Таким образом, злоумышленник снижает шансы на раннее обнаружение запланированной атаки. Многочисленные факторы могут помочь здесь. Например, хакер может отделить пользователей социальных сетей, которые пишут об ИТ, от тех, кто занимается темами «еда и кошки». Последняя группа может не знать об угрозах.

В этом случае можно использовать различные методы кластеризации и классификации, от K-средних и случайных лесов до нейронных сетей, поверх анализа НЛП, который следует применять к постам жертвы в социальных сетях.

Другой тип классификации может быть связан с платежеспособностью жертвы. Первый алгоритм обнаружения жертв будет нацелен на пользователей с фирменной одеждой, например, на детей, фотографирующих на частных самолетах в ботинках Balenciaga и последних сумках Gucci.

Это был пример сбора информации, когда у киберпреступников нет конкретной цели. Если злоумышленник знает жертву и имеет его или ее фотографию, ML может оказать дальнейшую помощь. С помощью инструментов распознавания изображений легко обнаружить учетные записи в социальных сетях. Trustwave уже сделал первый шаг в автоматизации с помощью своего инструмента под названиемСоциальный картографпредназначен для поиска человека в разных социальных сетях. Это решение использует поиск картинок Google.

Бьюсь об заклад, в ближайшее время будут разработаны возможности, аналогичные распознаванию реальных изображений.

ML для сбора информации об ИТ-активах онлайн

Сбор информации для целевых атак связан с одной жертвой и сложной инфраструктурой. Цель состоит в том, чтобы собрать как можно больше информации об этой инфраструктуре.

Идея состоит в том, чтобы автоматизировать проверки, включая сбор информации о сети. Хотя существующие инструменты, такие как сетевые сканеры и анализаторы, позволяют анализировать традиционные сети, сети нового поколения, основанные на программно-определяемых сетях (SDN), слишком сложны. Вот где машинное обучение может помочь противникам. Малоизвестный, но полезныйЗнай своего врага(KYE) атака, позволяющая скрытно собирать сведения о конфигурации целевой сети SDN, является уместным примером применения машинного обучения к задаче сбора информации. Информация, которую может собрать хакер, варьируется от конфигурации инструментов безопасности и параметров виртуализации сети до общих сетевых политик, таких как качество обслуживания (QoS) Злоумышленник может вывести конфиденциальную информацию, касающуюся конфигурации сети, проанализировав условия, при которых правило с одного сетевого устройства вставляется в сеть, и тип правила.

На этапе проверки злоумышленник пытается запустить установку правил потока на конкретном коммутаторе. Конкретные характеристики зондирующего трафика зависят от информации, которую хочет получить хакер.

На следующем этапе злоумышленник анализирует корреляцию между зондирующим трафиком, генерируемым на стадии зондирования, и соответствующими установленными правилами потока. Он или она может сделать вывод из этого анализа, какая сетевая политика применяется для определенных типов сетевых потоков. Например, злоумышленник может выяснить, что политика защиты реализуется путем фильтрации сетевого трафика, если он или она использует инструмент сканирования сети на этапе проверки. Ручная работа может занимать недели для сбора данных, и все же требуются алгоритмы с предварительно сконфигурированными параметрами, например, сколько определенных пакетов необходимо, чтобы принять решение, поскольку число зависит от различных факторов. С помощью машинного обучения хакеры могут автоматизировать этот процесс.

Как правило, все задачи сбора информации, которые требуют много времени, также могут быть автоматизированы. Например,

DirBusterинструмент длясканированиедля доступных каталогов и файлов может быть улучшено путем добавления своего рода генетических алгоритмов, LSTM или GAN для генерации имен каталогов, которые более похожи на существующие.

ML для сбора информации о людях в автономном режиме

Если киберпреступная деятельность связана с какой-либо физической активностью, например входом в защищенное здание, кибер-атакующему лучше иметь возможность отслеживать охранников. Им повезло, так как сейчас есть решение.

Исследователи нашли способ контролировать показатели жизнедеятельности пациентов в больнице или дома, без носимых или громоздких звуковых устройств. Что еще более важно, этот метод может использоваться, чтобы видеть сквозь стены. В потрясающем TEDразговариватьОни продемонстрировали эту систему.

Он фиксирует отражения беспроводных сигналов, таких как Wi-Fi, когда они отражаются от людей, создавая надежную запись жизненно важных функций для работников здравоохранения и пациентов. Это дает подробные данные отслеживания, не только, спят ли люди или бодрствуют, но также показывает фазу сна. Как и большинство великих изобретений, это устройство может служить и вредоносным целям. Представьте, как злоумышленники смогут использовать это устройство для проверки охранников.

ML для сбора информации об активах в автономном режиме

Размышляя о сборе информации об ИТ-активах в автономном режиме, первая идея, которая просвечивает, - это найти видеокамеры и другие устройства обнаружения внутри здания. Все эти устройства генерируют сигналы, и если мы обучим некоторый алгоритм на примерах таких символов, можно будет их обнаружить.

защита

Как вы можете защитить себя от жертвы? Само собой разумеется, что ваша личная информация не должна быть доступна в открытых источниках. Поэтому не публикуйте в социальных сетях очень много информации о себе. Это тривиальная, но очень важная вещь. Что касается физических атак, то, к сожалению, нет проверенных средств защиты. В настоящее время виды атак носят исключительно теоретический характер.

Машинное обучение для подражания

Олицетворение позволяет киберпреступникам атаковать жертв различными способами в зависимости от канала связи и потребности. Злоумышленники могут убедить жертв нажать на ссылку с эксплойтом или вредоносным ПО после отправки электронного письма или использования социальной инженерии. Поэтому даже телефонный звонок считается средством подражания. Олицетворение подразделяется на 3 типа кибер-активности: рассылка спама, фишинг и подмена.

Машинное обучение для подражания в спаме

Спам в электронной почте является одной из старейших областей, где машинное обучение использовалось в службе кибербезопасности. Тем не менее, это может быть одна из первых областей, связанных с ML, для распространения кибератак. Вместо того, чтобы генерировать спам-тексты вручную, киберпреступники могут обучать нейронную сеть для создания нежелательных электронных писем, что не вызовет подозрений.

Однако имитировать пользователей при работе со спамом по электронной почте сложно. Если вы попросите сотрудников по электронной почте изменить свои пароли или загрузить обновление от имени администратора компании, вы не сможете написать точно так же. Вы не сможете скопировать стиль, если не увидите кучу писем, написанных этим администратором. Что касается мессенджеров, которые становятся все более популярными сегодня, имитировать людей еще проще.

Машинное обучение для подражания в фишинге

Самым большим преимуществом фишинга в социальных сетях перед фишингом по электронной почте является публичность или легкий доступ к личной информации. Вы можете отслеживать и изучать поведение пользователей, читая его сообщения Эта идея была подтверждена в последнем исследовании «Оружейная наука о данных для социальной инженерии Автоматизированная фишинговая атака E2E в Твиттере- АвтоматизированныйЕ2Екопье фишингв Твиттере », который представилSNAP_Rавтоматизированный инструмент, который значительно увеличивает фишинговые кампании. В то время как традиционный автоматический фишинг дает точность 5% -14%, а ручной фишинг дает 45%. Этот метод прямо посередине с 30% точностью и до 66% в некоторых случаях с тем же усилием, что и автоматизированный. Исследователи использовали марковскую модель для создания твитов на основе предыдущих твитов пользователя и сравнили результаты с рекуррентной нейронной сетью, в частности с LSTM. LSTM обеспечивает более высокую точность, но требует больше времени для обучения.

Машинное обучение для подражания в подмене

В новую эру ИИ компании могут создавать не только фальшивые тексты, но и фальшивые голоса или видео.лирохвостСтартап, специализирующийся на медиа и видео, который может имитировать голоса, демонстрирует, что он может создать бота, который говорит точно так же, как вы. С ростом объема данных и развитием сетей хакеры могут показать еще лучшие результаты. Мы не знаем, как работает Lyrebird, и хакеры, вероятно, не могут использовать этот сервис для своих нужд, но они могут обнаружить более открытые платформы, такие как Google.WaveNet, которые могут сделать то же самое. Они применяют порождающие состязательные сети (GAN).

Картинки тоже можно подделать. В недавней статье Nvidia был представлен инструмент, который может генерировать высококачественные изображения знаменитостей.

Всего несколько лет назад видео и изображения, созданные нейронными сетями, имели низкое качество и были полезны только для исследовательских статей. Теперь почти каждый может создать поддельное видео со знаменитостью или всемирно известным политиком, рассказывающим то, что они никогда не говорили, или делающим то, что они никогда не делали (например, вы не поверите тому, что говорит ОбамаэтоВидео). Это может быть достигнуто с помощью общедоступных инструментов, таких какDeepFake,

Подделки есть везде, и эта проблема усугубляется. Что дальше? Поддельные компании? Мы уже виделитот самый, Парень создал поддельный ресторан с поддельными отзывами на TripAdvisor. Это не так легко сделать вручную, но ИИ может помочь в создании поддельных учетных записей. Все, что вам нужно, это обучить ИИ, чтобы автоматизировать создание фальшивых активов и компаний. Представьте себе фальшивые города и их информационные агентства, использующие ИИ для создания новостных лент, поддерживающих ту или иную повестку дня.

защита

Как спорный, так как это звучит, подделки реальные проблем. К счастью, есть много перспективных ходов.Министерство обороны представило первый инструмент, способный обнаруживать DeepFakes, Есть интересная особенность - лица не мигают в фальшивых видеороликах.

AI Foundation управляет еще одним движением в этой области. Проект называетсяЗащитник реальностинаправлена ​​на защиту пользователей от поддельных новостей с помощью плагина браузера.

Что касается фишинга, наиболее действенной рекомендацией для фишинга в учетных записях социальных сетей является проверка и запись пользователей, отправляющих подозрительные сообщения через другие каналы и мессенджеры. Существует небольшая вероятность того, что несколько их учетных записей будут скомпрометированы одновременно.

Машинное обучение для несанкционированного доступа

Получение несанкционированного доступа - это широкая тема, но есть как минимум две наиболее распространенные области, где машинное обучение может помочь. Это обход CAPTCHA и перебор пароля.

Машинное обучение для обхода CAPTCHA

Следующим этапом, который следует за олицетворением или в некоторых случаях, является получение несанкционированного доступа к учетным записям пользователей.

Если злоумышленникам необходимо получить несанкционированный доступ к сеансу пользователя, очевидным способом является взлом учетной записи. Для массового взлома одна из неприятных вещей - обход капчи. Ряд компьютерных программ может выполнять простые тесты с использованием капчи, но самая сложная часть - это сегментация объекта.

Существует множество исследовательских работ, в которых описаны методы обхода капчи. Один из первых примеров машинного обучения был опубликован 27 июня 2012 года Клаудией Крус, Фернандо Уседой и Леобардо Рейесом. Они использовалиметод опорных векторов (SVM) длясломать систему, работающую на изображениях reCAPTCHA с точностью 82%. Все механизмы капчи были значительно улучшены. Тем не менее, после этого появилась волна работ, в которых использовались методы глубокого обучения, чтобы сломать CAPTCHA.

В 2016 годустатья, в котором подробно описано, как с помощью глубокого обучения разбить простую капчу с точностью 92%.

Другаяисследованиеиспользовал одно из последних достижений в распознавании изображений - глубокие остаточные сети с 34 слоями, чтобы сломатьCAPTCHA,IRCTC, популярного индийского сайта, также с точностью 95–98%. Эти статьи в основном охватывали символьные капчи.

Один из многихвдохновляядокументы были выпущены наЧерная шляпаконференция. Исследовательская работа называлась «Я робот» Они использовали, чтобы сломать последний семантический образ CAPTCHA и сравнили различные алгоритмы машинного обучения. Газета обещала 98% -ную точность при взломе Google reCAPTCHA.

Чтобы сделать вещи еще хуже,новая статьязаявляет, что ученые предупреждают о предстоящих 100% методах обхода капчи.

Машинное обучение по паролю брутфорс

Еще одна область, в которой киберпреступники могут найти преимущества с помощью машинного обучения, - это перебор паролей.

Марковские модели были первыми, которые использовались для генерации «паролей» в 2005 году, задолго до того, как углубленное изучение стало актуальным. Если вы знакомы с текущими нейронными сетями и LSTM, вы, вероятно, слышали о сети, генерирующей текст на основе обученного текста. Если вы дадите сети работу Шекспира, она создаст на ее основе новый текст, и вновь сгенерированный текст будет выглядеть как написанный Шекспиром. Эта же идея может быть использована для генерации паролей. Если вы можете обучить сеть по наиболее распространенным паролям, она сгенерирует много похожих. Исследователи приняли этот подход,прикладнаяэто к паролям и получил положительные результаты, которые были лучше, чем традиционные мутации для создания списков паролей, таких как замена букв на символы, например, от «с» до «$».

Другой подход был упомянут в одной из статей «PassGAN: глубокий подход к изучению паролей”Где исследователи использовали GAN для генерации паролей. GAN - это особые типы нейронных сетей, состоящие из двух сетей. Один обычно называется генеративным, а другой дискриминационным. В то время как один генерирует состязательные примеры, другойтестированиеРеален ли этот пример? Основная идея состоит в том, чтобы обучить сети, основанные на реальных данных о паролях из тех, которые были собраны из недавних взломов данных. После публикации о самой большойбаза из 1,4 миллиарда паролейот всех нарушений, идея выглядит многообещающей для киберпреступников.

защита

Как вы можете защитить себя? Капчи распознавания объектов мертвы. Если вы выбираете капчу для своего сайта, лучше попробовать MathCaptcha или его альтернативы. Во-вторых, используйте сложные пароли и исключайте простые. Избегайте тех из базы данных. Единственными безопасными случайными паролями являются те, которые построены на укороченных предложениях и смешаны со специальными символами, или совершенно случайные строки, сохраненные в инструменте управления паролями.

Машинное обучение для атак

Следующей областью, где киберпреступники хотят использовать машинное обучение, является сама атака. В целом, есть 3 цели: шпионаж, саботаж и мошенничество. В основном все они выполняются с помощью вредоносных программ, шпионских программ, вымогателей или любых других типов вредоносных программ, которые пользователи загружают из-за фишинга. Злоумышленники также загружают их из-за уязвимостей. Наряду с DoS-атаками существуют и менее распространенные атаки, такие как крауд-серфинг. Эти атаки могут принести пользу от ML даже больше, чем традиционные.

Машинное обучение для обнаружения уязвимостей

Одним из наиболее распространенных методов обнаружения уязвимостей является Fuzzing. Это подразумевает помещение случайного ввода в приложение и отслеживание его аварийного завершения. Есть 2 шага, которые требуют автоматизации и помощи AI. Первое - это генерация примеров. Обычно, если вы берете, например, PDF-документ, исследователь редактирует этот документ путем случайного изменения некоторых полей. Использование более разумных подходов к генерации мутаций может значительно ускорить процесс поиска новых примеров документов, которые могут привести к сбою приложения.

Подходы к обучению с подкреплением, подобные тем, которые используются AlphaGo, также могут быть реализованы. Если модель AlphaGO обнаружила сбой в игре, это также может помочь в поиске проблем с безопасностью. Анализ сбоев следует обнаружению уязвимостей. Каждый анализ требует большой ручной работы. Если можно обучить модель выбирать более подходящие сбои, это сэкономит время и усилия. Кроме того, это делает обнаружение уязвимостей намного дешевле.

Здесь вы можете узнать больше о машинном обучении фаззингу

Машинное обучение для вредоносных программ / шпионских программ / вымогателей

Машинное обучение для защиты от вредоносных программ было, вероятно, первой коммерчески успешной реализацией ML в кибербезопасности. Существуют десятки научных работ, описывающих различные методы обнаружения вредоносных программ.использующийискусственный интеллект (ИИ).

Как киберпреступники могут использовать машинное обучение для создания вредоносных программ? Можно попытаться использовать подкрепление обучения. Киберпреступники могут взять пример вредоносного ПО, изменить его, отправить в VirusTotal, проверить результаты, внести другие изменения и т. Д.

Кроме того, распознавание лица может быть использовано для выполнения целевых атак. DeepLocker является примером вредоносного ПО, которое скрывается, пока не произойдет конкретное событие, например, обнаружение целевого лица системой распознавания.

Машинное обучение для DoS-атак

Каковы наиболее распространенные способы обнаружения DDoS-атак? Поиск общих шаблонов в сетевых пакетах, которые осуществляют эту атаку. Защита от DDoS всегда напоминает игру в кошки-мышки. Злоумышленники пытаются отличать DDoS-пакеты, подделывая каждое поле, а защитники пытаются определить общие шаблоны в поддельных запросах. С помощью ИИ злоумышленники могут генерировать DDoS-пакеты в непосредственной близости от реальных действий пользователя. Они могут прослушивать нормальный трафик и затем обучать нейронную сеть, такую ​​как GAN, для отправки законных пакетов. Использование ИИ в DDoS-атаках может внести существенные изменения в эту область.

Машинное обучение для краудтёрфинга

Массовое следование, генерация поддельной информации, включая поддельные новости. С помощью машинного обучения злоумышленники могут снизить затраты на эти атаки и автоматизировать их.

в«Автоматизированные Crowdturfing атаки и защиты в системах онлайн-обзора»В исследовании, опубликованном в сентябре 2017 года, был представлен пример системы, которая генерирует поддельные обзоры на Yelp. Преимущество заключалось не только в 5-звездочных обзорах, которые не могут быть обнаружены, но и в обзорах с лучшими оценками по сравнению с оценками, написанными людьми.

Проще говоря, краудтёрфинг - это злонамеренное использование краудсорсинговых услуг. Например, злоумышленник платит за написание негативных онлайн-отзывов о конкурирующем бизнесе. Эти обзоры часто остаются незамеченными, потому что их пишут реальные люди, а автоматизированные инструменты ищут злоумышленников.

Поддельные новости - лишь один из примеров крауд-серфинга. Книга Макса Тагмарка «Жизнь 3.0Упомянут другой пример. Была фантастическая история, где команда хакеров создала ИИ, который мог выполнять простые рабочие задачи в Amazon Mechanical Turk (MTurk). Самым важным было то, что стоимость оплаты этого AI-оборудования в Amazon Web Services была меньше, чем в Amazon Mturk. Им потребовался короткий период времени, чтобы почти обанкротить Амазонку.

Машинное обучение для автоматизации киберпреступности

Опытные хакеры могут использовать машинное обучение для автоматизации задач в различных областях. Почти невозможно предсказать, когда и что именно будет автоматизировано, но для того, чтобы знать, что в организациях, занимающихся киберпреступностью, сотни членов, требуются различные типы программного обеспечения, такие как порталы поддержки или боты поддержки.

Что касается конкретных задач киберпреступности, есть новый термин -Hivenet- стоять за умные ботнеты. Идея состоит в том, что, если киберпреступники управляют ботнетами вручную, у hivenets может быть своего рода мозг для достижения определенного события и изменения поведения в зависимости от них. множественныйботыбудет сидеть в устройствах и решать на основе задачи, кто будет использовать ресурсы жертвы. Это как цепь паразитов, живущих в организме.

Вывод

Приведенные выше идеи являются лишь некоторыми примерами того, как хакеры могут использовать машинное обучение.

Помимо использования более безопасных паролей и большей осторожности при посещении сторонних веб-сайтов, я могу лишь посоветовать уделять внимание системам безопасности на основе ML, чтобы опередить злоумышленников.

Год или два назад все скептически относились к использованию машинного обучения. Сегодняшние результаты исследований и их внедрение в продуктах доказывают, что ML действительно работает, и он здесь, чтобы остаться. В противном случае хакеры начнут смотреть в будущее и получат пользу от ML.

Пожалуйста, хлопайте, если вам понравилась моя статья, и подпишитесь, чтобы узнать больше о различных аспектах машинного обучения и кибербезопасности. Приветствия.

Оригинальная статья

Footer decor

© www.machinelearningmastery.ru | Ссылки на оригиналы и авторов сохранены. | map