Архив статей журнала
Аварийным службам часто приходится проводить спасательные и ликвидационные работы в условиях отсутствия централизованной связи. Невозможность обеспечения стабильной коммуникации между членами спасательного подразделения существенно снижает качество проведения работ. При этом в современных реалиях под стабильной коммуникацией понимается не только голосовой обмен, который может быть обеспечен коротковолновыми радиопередатчиками, но и интенсивный обмен большими объемами трафика. Применение стандартных решений на основе типового сетевого оборудования (Wi-Fi, спутниковая связь и др.) и существующих алгоритмов обеспечения качества обслуживания в рассматриваемых условиях не позволяет быстро обеспечить информационный обмен между разнородными абонентами. Более того, работа в высокогерцовых диапазонах может быть сильно затруднена при наличии препятствий, что снижает общую площадь покрытия и качество передачи данных. Мы предлагаем протокол маршрутизации сетевого уровня, предназначенный для организации децентрализованной связи в подразделении аварийной службы, где абоненты отличаются разной степенью мобильности и типом передаваемого трафика. Данный протокол включает алгоритмы подключения к сети, обнаружения оптимального и альтернативных маршрутов связи, передачи и балансировки трафика по найденным маршрутам. Оригинальный алгоритм поиска маршрутов анализирует производительность каналов связи и определяет все возможные пути передачи трафика между абонентами. С использованием функции оценки маршрутов, основанной на градиентном бустинге деревьев принятия решений, производится формирование оптимальных и альтернативных маршрутов связи, а при передаче данных, на основе полученной информации, выполняется балансировка трафика. Экспериментальное исследование предложенного протокола показало улучшение показателей скорости развертывания и качества обслуживания на сценариях с различной степенью мобильности абонентов.
В работе рассматривается задача количественного сравнения эффективности и стойкости практически применяемых обфусцирующих преобразований программного кода. Предлагается способ нахождения эффективности и стойкости преобразований путем вычисления «понятности» соответственно обфусцированной и деобфусцированной версий программы. В качестве меры понятности программы предлагается использовать похожесть этой программы на аппроксимацию ее «самой понятной» версии. На основе предложенного способа построена модель оценки эффективности и стойкости, основными элементами которой являются: набор исследуемых обфусцирующих преобразований, функция похожести, способ аппроксимации самой понятной версии программы и деобфускатор. Для реализации этой модели 1) выбраны обфусцирующие преобразования, предоставляемые обфускатором Hikari; 2) методами машинного обучения по статическим характеристикам программ из наборов CoreUtils, PolyBench и HashCat построено 8 функций похожести; 3) в качестве аппроксимации самой понятной версии программы выбрана наименьшая по размеру версия программы, найденная среди версий, полученных с помощью опций оптимизации компиляторов GCC, Clang и AOCC; 4) построена и реализована схема деобфускации программ на основе оптимизирующего компилятора из состава LLVM. В работе экспериментально получены результаты оценки эффективности и стойкости для последовательностей преобразований длины один, два и три. Эти результаты показали согласованность с результатами независимых оценок эффективности и стойкости, полученных другими способами. В частности, получено, что наибольшую эффективность и стойкость демонстрируют последовательности преобразований, начинающиеся с преобразований графа потока управления, а наименьшей стойкостью и эффективностью - как правило, последовательности, не содержащие таких преобразований.
Цифровизация современной экономики привела к масштабному проникновению информационных технологий в различные сферы человеческой деятельности. Кроме положительных эффектов это крайне обострило проблему противодействия киберугрозам, реализация которых злоумышленниками часто влечет за собой тяжелые последствия. Вредоносное программное обеспечение (ВПО) занимает важное место на современном ландшафте киберугроз, наиболее громкие киберпреступления последних лет связаны с применением ВПО. В связи с этим активно развивается проблемная область противодействия ВПО и одним из перспективных направлений исследований в данной области является создание методов детектирования ВПО на основе машинного обучения. Однако слабым местом многих известных исследований является построение достоверных наборов данных для моделей машинного обучения, когда авторы не раскрывают особенности формирования, предобработки и разметки данных о ВПО, что компрометирует воспроизводимость этих исследований. В данной работе предлагается методика сбора данных об активности ВПО, основанная на матрице MITRE ATT&CK и Sigma-правилах, и рассчитанная на операционные системы семейства Windows. Предлагаемая методика направлена на повышение качества наборов данных, содержащих характеристики поведения ВПО и легитимных процессов, а также на сокращение времени разметки данных экспертным способом. Для апробации методики подготовлен программный стенд и проведены эксперименты, подтвердившие ее адекватность.
Для принятия решения по обеспечению безопасности информационной инфраструктуры (ИИ) в целях ее устойчивого функционирования в условиях воздействия угроз требуется инструмент, позволяющий оценить устойчивость функционирования ее отдельных элементов. Применение полумарковской модели для оценивания устойчивости функционирования элементов ИИ, подверженной воздействию угроз, в прямой постановке сопряжено с ростом сложности описания объекта моделирования (параметрического пространства) в степенной прогрессии от числа учитываемых воздействий, что снижает ее практическую значимость. Однако в научной литературе не обнаружено исследований по снижению сложности полумарковской модели. В статье приведен подход к снижению сложности моделирования посредством принятия корректных допущений при формировании исходных данных. Приведены условия, при которых возможно принять ряд допущений, позволяющих значительно снизить сложность моделирования, платой за это является ограничение области применимости модели. Приводится постановка задачи и модифицированный граф переходов. Новизна постановки задачи заключается в учете ограничений на имеющийся ресурс для восстановления функциональности элемента. Для пояснения физической сущности процесса моделирования приводится мысленный эксперимент с моделью. Для решения задачи были использованы: а) экспертные методы для добывания исходных данных; б) математические модели частных полумарковских процессов; в) методы преобразований Лапласа; г) методы планирования эксперимента. Демонстрация последовательности решения задачи сопровождается иллюстративными примерами и графиками. В результате эксперимента были выявлены закономерности исследуемого процесса, существование которых было доказано формально. Исследование показало, что при принятии мотивированных допущений возможно снизить сложность моделирования. Результаты исследования расширяют знания о приложении методов марковских процессов для оценивания устойчивости функционирования элементов ИИ применительно к условиям воздействия угроз.
Одним из основных подходов к обработке, анализу и визуализации геофизических данных является применение геоинформационных систем и технологий, что обусловлено их геопространственной привязкой. Вместе с тем, сложность представления геофизических данных связана с их комплексной структурой, предполагающей множество составляющих, которые имеют одну и ту же геопространственную привязку. Яркими примерами данных такой структуры и формата являются гравитационные и геомагнитные поля, которые в общем случае задаются трех и четырехкомпонентными векторами с разнонаправленными осями координат. При этом на сегодняшний день отсутствуют решения, позволяющие визуализировать указанные данные в комплексе, не декомпозируя их на отдельные скалярные значения, которые, в свою очередь, могут быть представлены в виде одного или многих пространственных слоев. В этой связи в работе предложена концепция, использующая элементы тензорного исчисления для обработки, хранения и визуализации информации такого формата. Формализован механизм тензорного представления компонент поля с возможностью его комбинирования с другими данными такого же формата, с одной стороны, и свертки при сочетании с данными более низкого ранга. На примере гибридной реляционно-иерархической модели данных предложен механизм хранения информации по тензорным полям, предусматривающий возможность описания и применения инструкций по трансформации при переходе между различными системами координат. В работе рассматривается применение подхода при переходе от декартовой к сферической системе координат при представлении параметров геомагнитного поля. Для комплексной визуализации параметров тензорного поля предложен подход, основанный на применении тензорных глифов. В качестве последних при этом используются суперэллипсы с осями, соответствующими рангу тензора. При этом атрибутивные значения предлагается визуализировать относительно осей графического примитива таким образом, что распределение данных может быть задано посредством варьирования градиента монохромного представления параметра вдоль оси. Работоспособность концепции была исследована в ходе сравнительного анализа тензорного подхода с решениями, основанными на скалярной декомпозиции соответствующих комплексных значений с последующим их представлением в виде одного или многих пространственных слоев. Проведенный анализ показал, что применение предложенного подхода позволит в значительной степени повысить наглядность формируемого геопространственного изображения без необходимости сложного перекрывания пространственных слоев.
Оценка рисков информационной безопасности является важнейшим компонентом методов промышленного менеджмента, который помогает выявлять, количественно определять и оценивать риски в сравнении с критериями принятия рисков и целями, относящимися к организации. Благодаря своей способности комбинировать несколько параметров для определения общего риска традиционный метод оценки рисков, основанный на нечетких правилах, используется во многих отраслях промышленности. Этот метод имеет недостаток, поскольку он используется в ситуациях, когда необходимо оценить несколько параметров, и каждый параметр выражается различным набором лингвистических фраз. В этой статье представлены теория нечетких множеств и модель прогнозирования рисков с использованием искусственной нейронной сети (ANN), которые могут решить рассматриваемую проблему. Также разработан алгоритм, который может изменять факторы, связанные с риском, и общий уровень риска с нечеткого свойства на атрибут с четким значением. Система была обучена с использованием двенадцати выборок, представляющих 70%, 15% и 15% набора данных для обучения, тестирования и валидации соответственно. Кроме того, также была разработана пошаговая регрессионная модель, и ее результаты сравниваются с результатами ANN. С точки зрения общей эффективности, модель ANN (R2= 0,99981, RMSE=0,00288 и MSE=0,00001) показала лучшую производительность, хотя обе модели достаточно удовлетворительны. Делается вывод, что модель ANN, прогнозирующая риск, может давать точные результаты до тех пор, пока обучающие данные учитывают все мыслимые условия.
В стремительно развивающейся цифровой эпохе интерфейсы человеко-машинного взаимодействия непрерывно совершенствуется. Традиционные методы взаимодействия с компьютером, такие как мышь и клавиатура, дополняются и даже заменяются более интуитивными способами, которые включают технологии отслеживания глаз. Обычные методы отслеживания глаз используют камеры, которые отслеживают направление взгляда, но имеют свои ограничения. Альтернативным и многообещающим подходом к отслеживанию глаз является использование электроэнцефалографии, техники измерения активности мозга. Исторически ЭЭГ была ограничена в основном лабораторными условиями. Однако мобильные и доступные устройства для ЭЭГ появляются на рынке, предлагая более универсальное и эффективное средство для регистрации биопотенциалов. В данной статье представлен метод локализации взгляда с использованием электроэнцефалографии, полученной с помощью мобильного регистратора ЭЭГ в виде носимой головной повязки (компании BrainBit). Это исследование направлено на декодирование нейрональных паттернов, связанных с разными направлениями взгляда, с использованием продвинутых методов машинного обучения, в частности, нейронных сетей. Поиск паттернов выполняется как с использованием данных, полученных с помощью носимых очков с камерой для отслеживания глаз, так и с использованием неразмеченных данных. Полученные в исследовании результаты демонстрируют наличие зависимости между движением глаз и ЭЭГ, которая может быть описана и распознана с помощью предсказательной модели. Данная интеграция мобильной технологии ЭЭГ с методами отслеживания глаз предлагает портативное и удобное решение, которое может быть применено в различных областях, включающих медицинские исследования и разработку более интуитивных компьютерных интерфейсов.
Гидроцефалия - это заболевание центральной нервной системы, которое чаще всего поражает младенцев и детей ясельного возраста. Оно начинается с аномального накопления спинномозговой жидкости в желудочковой системе головного мозга. Следовательно, жизненно важной становится ранняя диагностика, которая может быть выполнена с помощью компьютерной томографии (КТ), одного из наиболее эффективных методов диагностики гидроцефалии (КТ), при котором становится очевидным увеличение желудочковой системы. Однако большинство оценок прогрессирования заболевания основаны на оценке рентгенолога и физических показателях, которые являются субъективными, отнимающими много времени и неточными. В этой статье разрабатывается автоматическое прогнозирование с использованием фреймворка H-detect для повышения точности прогнозирования гидроцефалии. В этой статье используется этап предварительной обработки для нормализации входного изображения и удаления нежелательных шумов, что может помочь легко извлечь ценные признаки. Выделение признаков осуществляется путем сегментации изображения на основе определения границ с использованием треугольных нечетких правил. Таким образом, выделяется точная информация о природе ликвора внутри мозга. Эти сегментированные изображения сохраняются и снова передаются алгоритму CatBoost. Обработка категориальных признаков позволяет ускорить обучение. При необходимости детектор переобучения останавливает обучение модели и, таким образом, эффективно прогнозирует гидроцефалию. Результаты демонстрируют, что новая стратегия H-detect превосходит традиционные подходы.
В данной статье представлено аналитическое исследование особенностей двух типов парсинга, а именно синтаксический анализ составляющих (constituency parsing) и синтаксический анализ зависимостей (dependency parsing). Также в рамках проведенного исследования разработан алгоритм оптимизации извлечения ключевых слов, отличающийся применением функции извлечения именных фраз, предоставляемой парсером, для фильтрации неподходящих фраз. Алгоритм реализован с помощью трех разных парсеров: SpaCy, AllenNLP и Stazna. Эффективность предложенного алгоритма сравнивалась с двумя популярными методами (Yake, Rake) на наборе данных с английскими текстами. Результаты экспериментов показали, что предложенный алгоритм с парсером SpaCy превосходит другие алгоритмы извлечения ключевых слов с точки зрения точности и скорости. Для парсера AllenNLP и Stanza алгоритм так же отличается точностью, но требует гораздо большего времени выполнения. Полученные результаты позволяют более детально оценить преимущества и недостатки изучаемых в работе парсеров, а также определить направления дальнейших исследований. Время работы парсера SpaCy значительно меньше, чем у двух других парсеров, потому что парсеры, которые используют переходы, применяют детерминированный или машинно-обучаемый набор действий для пошагового построения дерева зависимостей. Они обычно работают быстрее и требуют меньше памяти по сравнению с парсерами, основанными на графах, что делает их более эффективными для анализа больших объемов текста. С другой стороны, AllenNLP и Stanza используют модели парсинга на основе графов, которые опираются на миллионы признаков, что ограничивает их способность к обобщению и замедляет скорость анализа по сравнению с парсерами на основе переходов. Задача достижения баланса между точностью и скоростью лингвистического парсера является открытой темой, требующей дальнейших исследований в связи с важностью данной проблемы для повышения эффективности текстового анализа, особенно в приложениях, требующих точности при работе в реальном масштабе времени. С этой целью авторы планируют проведение дальнейших исследований возможных решений для достижения такого баланса.
Несмотря на широкое применение во многих областях, точная и эффективная идентификация деятельности человека продолжает оставаться интересной исследовательской проблемой в области компьютерного зрения. В настоящее время проводится много исследований по таким темам, как распознавание активности пешеходов и способы распознавания движений людей с использованием данных глубины, трехмерных скелетных данных, данных неподвижных изображений или стратегий, использующих пространственно-временные точки интереса. Это исследование направлено на изучение и оценку подходов DL для обнаружения человеческой активности на видео. Основное внимание было уделено нескольким структурам для обнаружения действий человека, которые используют DL в качестве своей основной стратегии. В зависимости от приложения, включая идентификацию лиц, идентификацию эмоций, идентификацию действий и идентификацию аномалий, прогнозы появления людей разделены на четыре различные подкатегории. В литературе было проведено несколько исследований, основанных на этих распознаваниях для прогнозирования поведения и активности человека в приложениях видеонаблюдения. Сравнивается современное состояние методов DL для четырех различных приложений. В этой статье также представлены области применения, научные проблемы и потенциальные цели в области распознавания человеческого поведения и активности на основе DL.
Проведены исследования возможностей аугментации (искусственного размножения) обучающих данных в задаче классификации с использованием деформирующих преобразований обрабатываемых изображений. Представлены математическая модель и быстродействующий алгоритм выполнения деформирующего преобразования изображения, при использовании которых исходное изображение преобразуется с сохранением своей структурной основы и отсутствием краевых эффектов. Предложенный алгоритм используется для аугментации наборов изображений в задаче классификации, содержащих относительно небольшое количество обучающих примеров. Аугментация исходной выборки осуществляется в два этапа, включающих зеркальное отображение и деформирующее преобразование каждого исходного изображения. Для проверки эффективности подобной техники аугментации в статье проводится обучение нейронных сетей - классификаторов различного вида: сверточных сетей стандартной архитектуры (convolutional neural network, CNN) и сетей с остаточными связями (deep residual network, DRN). Особенностью реализуемого подхода при решении рассматриваемой задачи является также отказ от использования предобученных нейронных сетей с большим количеством слоев и дальнейшим переносом обучения, поскольку их применение несет за собой затраты с точки зрения используемого вычислительного ресурса. Показано, что эффективность классификации изображений при реализации предложенного метода аугментации обучающих данных на выборках малого и среднего объема повышается до статистически значимых значений используемой метрики.
В современном мире Интернет вещей стал неотъемлемой частью нашей жизни. Растущее число умных устройств и их повсеместное распространение усложняют разработчикам и системным архитекторам эффективное планирование и внедрение систем Интернета вещей и промышленного Интернета вещей. Основная цель данной работы - автоматизировать процесс проектирования промышленных систем Интернета вещей при оптимизации параметров качества обслуживания, срока службы батареи и стоимости. Для достижения этой цели вводится общая четырехуровневая модель туманных вычислений, основанная на математических множествах, ограничениях и целевых функциях. Эта модель учитывает различные параметры, влияющие на производительность системы, такие как задержка сети, пропускная способность и энергопотребление. Для нахождения Парето-оптимальных решений используется генетический недоминируемый алгоритм сортировки II, а для определения компромиссных решений на Парето-фронте - метод определения порядка предпочтения по сходству с идеальным решением. Оптимальные решения, сгенерированные этим подходом, представляют собой серверы, коммуникационные каналы и шлюзы, информация о которых хранится в базе данных. Эти ресурсы выбираются на основе их способности улучшить общую производительность системы. Предлагаемая стратегия следует трехэтапному подходу для минимизации размерности и уменьшения зависимостей при исследовании пространства поиска. Кроме того, сходимость оптимизационных алгоритмов улучшается за счет использования предварительно настроенной начальной популяции, которая использует существующие знания о том, как должно выглядеть решение. Алгоритмы, используемые для генерации этой начальной популяции, описываются подробно. Для иллюстрации эффективности автоматизированной стратегии приводится пример ее применения.