Текущий выпуск Номер 5, 2025 Том 17

Все выпуски

Результаты поиска по 'Internet of Things':
Найдено статей: 3
  1. Gaber M.I., Nechaevskiy A.V.
    Development of advanced intrusion detection approach using machine and ensemble learning for industrial internet of things networks
    Компьютерные исследования и моделирование, 2025, т. 17, № 5, с. 799-827

    The Industrial Internet of Things (IIoT) networks plays a significant role in enhancing industrial automation systems by connecting industrial devices for real time data monitoring and predictive maintenance. However, this connectivity introduces new vulnerabilities which demand the development of advanced intrusion detection systems. The nuclear facilities are considered one of the closest examples of critical infrastructures that suffer from high vulnerability through the connectivity of IIoT networks. This paper develops a robust intrusion detection approach using machine and ensemble learning algorithms specifically determined for IIoT networks. This approach can achieve optimal performance with low time complexity suitable for real-time IIoT networks. For each algorithm, Grid Search is determined to fine-tune the hyperparameters for optimizing the performance while ensuring time computational efficiency. The proposed approach is investigated on recent IIoT intrusion detection datasets, WUSTL-IIOT-2021 and Edge-IIoT-2022 to cover a wider range of attacks with high precision and minimum false alarms. The study provides the effectiveness of ten machine and ensemble learning models on selected features of the datasets. Synthetic Minority Over-sampling Technique (SMOTE)-based multi-class balancing is used to manipulate dataset imbalances. The ensemble voting classifier is used to combine the best models with the best hyperparameters for raising their advantages to improve the performance with the least time complexity. The machine and ensemble learning algorithms are evaluated based on accuracy, precision, recall, F1 Score, and time complexity. This evaluation can discriminate the most suitable candidates for further optimization. The proposed approach is called the XCL approach that is based on Extreme Gradient Boosting (XGBoost), CatBoost (Categorical Boosting), and Light Gradient- Boosting Machine (LightGBM). It achieves high accuracy, lower false positive rate, and efficient time complexity. The results refer to the importance of ensemble strategies, algorithm selection, and hyperparameter optimization in enhancing the performance to detect the different intrusions across the IIoT datasets over the other models. The developed approach produced a higher accuracy of 99.99% on the WUSTL-IIOT-2021 dataset and 100% on the Edge-IIoTset dataset. Our experimental evaluations have been extended to the CIC-IDS-2017 dataset. These additional evaluations not only highlight the applicability of the XCL approach on a wide spectrum of intrusion detection scenarios but also confirm its scalability and effectiveness in real-world complex network environments.

    Gaber M.I., Nechaevskiy A.V.
    Development of advanced intrusion detection approach using machine and ensemble learning for industrial internet of things networks
    Computer Research and Modeling, 2025, v. 17, no. 5, pp. 799-827

    The Industrial Internet of Things (IIoT) networks plays a significant role in enhancing industrial automation systems by connecting industrial devices for real time data monitoring and predictive maintenance. However, this connectivity introduces new vulnerabilities which demand the development of advanced intrusion detection systems. The nuclear facilities are considered one of the closest examples of critical infrastructures that suffer from high vulnerability through the connectivity of IIoT networks. This paper develops a robust intrusion detection approach using machine and ensemble learning algorithms specifically determined for IIoT networks. This approach can achieve optimal performance with low time complexity suitable for real-time IIoT networks. For each algorithm, Grid Search is determined to fine-tune the hyperparameters for optimizing the performance while ensuring time computational efficiency. The proposed approach is investigated on recent IIoT intrusion detection datasets, WUSTL-IIOT-2021 and Edge-IIoT-2022 to cover a wider range of attacks with high precision and minimum false alarms. The study provides the effectiveness of ten machine and ensemble learning models on selected features of the datasets. Synthetic Minority Over-sampling Technique (SMOTE)-based multi-class balancing is used to manipulate dataset imbalances. The ensemble voting classifier is used to combine the best models with the best hyperparameters for raising their advantages to improve the performance with the least time complexity. The machine and ensemble learning algorithms are evaluated based on accuracy, precision, recall, F1 Score, and time complexity. This evaluation can discriminate the most suitable candidates for further optimization. The proposed approach is called the XCL approach that is based on Extreme Gradient Boosting (XGBoost), CatBoost (Categorical Boosting), and Light Gradient- Boosting Machine (LightGBM). It achieves high accuracy, lower false positive rate, and efficient time complexity. The results refer to the importance of ensemble strategies, algorithm selection, and hyperparameter optimization in enhancing the performance to detect the different intrusions across the IIoT datasets over the other models. The developed approach produced a higher accuracy of 99.99% on the WUSTL-IIOT-2021 dataset and 100% on the Edge-IIoTset dataset. Our experimental evaluations have been extended to the CIC-IDS-2017 dataset. These additional evaluations not only highlight the applicability of the XCL approach on a wide spectrum of intrusion detection scenarios but also confirm its scalability and effectiveness in real-world complex network environments.

  2. Клименко А.Б.
    Математическая модель и эвристические методы организации распределенных вычислений в системах интернета вещей
    Компьютерные исследования и моделирование, 2025, т. 17, № 5, с. 851-870

    В настоящее время интенсивное развитие получило направление в рамках теории распределенных вычислений, когда вычислительные задачи решаются распределенно коллективом ресурсно ограниченных устройств. На практике такой сценарий реализуется при обработке данных в системах интернета вещей, когда с целью снижения латентности систем и загруженности сетевой инфраструктуры данные обрабатываются на вычислительных устройствах края сети, в то время как стремительный рост и распространение систем интернета вещей ставят вопрос о необходимости разработки методов снижения ресурсоемкости производимых вычислений. Ресурсная ограниченность вычислительных устройств ставит следующие вопросы распределения вычислительных ресурсов: во-первых, необходимость учета ресурсной стоимости транзита данных между решаемыми на различных устройствах задачах, во-вторых, необходимость учета ресурсной стоимости непосредственно процесса распределения вычислительных ресурсов, что особенно актуально для групп автономных устройств (роботы различных типов, сенсорные сети и др.). Анализ современных публикаций, представленных в открытом доступе, продемонстрировал отсутствие предложенных моделей или методов распределения вычислительных ресурсов, которые бы совместно учитывали перечисленное, что делает создание новой математической модели организации распределенных вычислений в системах интернета вещей и методов ее решения актуальными.

    В данной статье предложены новая математическая модель распределения вычислительных ресурсов и эвристические методы решения получаемой задачи оптимизации, что в комплексе реализует организацию распределенных вычислений в системах интернета вещей. Рассматривается сценарий, когда в группе устройств имеется лидер, который принимает решение о распределении вычислительных ресурсов, в том числе и собственных, для распределенного решения вычислительных задач с наличием информационных обменов. Также предполагается, что отсутствует априорная информация о том, какому устройству назначена роль лидера, и о маршрутах миграции вычислительных задач на устройства.

    Результаты экспериментального исследования продемонстрировали целесообразность использования предложенных моделей и эвристических методов: достигается распределение вычислительных ресурсов со снижением ресурсной стоимости решения вычислительной задачи до 52 % при учете ресурсной стоимости транзита данных, экономия ресурсов до 73 % при дополнении основных критериев оптимизации распределения задач критерием минимизации количества и расстояний миграций подзадач вычислительной задачи (ВЗ), а также снижение ресурсной стоимости решения задачи распределения вычислительных ресурсов до 28 раз со снижением качества полученного распределения до 10 %.

    Klimenko A.B.
    Mathematical model and heuristic methods of distributed computations organizing in the Internet of Things systems
    Computer Research and Modeling, 2025, v. 17, no. 5, pp. 851-870

    Currently, a significant development has been observed in the direction of distributed computing theory, where computational tasks are solved collectively by resource-constrained devices. In practice, this scenario is implemented when processing data in Internet of Things systems, with the aim of reducing system latency and network infrastructure load, as data is processed on edge network computing devices. However, the rapid growth and widespread adoption of IoT systems raise questions about the need to develop methods for reducing the resource intensity of computations. The resource constraints of computing devices pose the following issues regarding the distribution of computational resources: firstly, the necessity to account for the transit cost between different devices solving various tasks; secondly, the necessity to consider the resource cost associated directly with the process of distributing computational resources, which is particularly relevant for groups of autonomous devices such as drones or robots. An analysis of modern publications available in open access demonstrated the absence of proposed models or methods for distributing computational resources that would simultaneously take into account all these factors, making the creation of a new mathematical model for organizing distributed computing in IoT systems and its solution methods topical. This article proposes a novel mathematical model for distributing computational resources along with heuristic optimization methods, providing an integrated approach to implementing distributed computing in IoT systems. A scenario is considered where there exists a leader device within a group that makes decisions concerning the allocation of computational resources, including its own, for distributed task resolution involving information exchanges. It is also assumed that no prior knowledge exists regarding which device will assume the role of leader or the migration paths of computational tasks across devices. Experimental results have shown the effectiveness of using the proposed models and heuristics: achieving up to a 52% reduction in resource costs for solving computational problems while accounting for data transit costs, saving up to 73% of resources through supplementary criteria optimizing task distribution based on minimizing fragment migrations and distances, and decreasing the resource cost of resolving the computational resource distribution problem by up to 28 times with reductions in distribution quality up to 10%.

  3. Кхан С.А., Шулепина С., Шулепин Д., Лукманов Р.А.
    Обзор алгоритмических решений для развертывания нейронных сетей на легких устройствах
    Компьютерные исследования и моделирование, 2024, т. 16, № 7, с. 1601-1619

    В современном мире, ориентированном на технологии, легкие устройства, такие как устройства Интернета вещей (IoT) и микроконтроллеры (MCU), становятся все более распространенными. Эти устройства более энергоэффективны и доступны по цене, но часто обладают урезанными возможностями, по сравнению со стандартными версиями, такими как ограниченная память и вычислительная мощность. Современные модели машинного обучения могут содержать миллионы параметров, что приводит к значительному росту требований по объему памяти. Эта сложность не только затрудняет развертывание больших моделей на устройствах с ограниченными ресурсами, но и увеличивает риск задержек и неэффективности при обработке данных, что критично в случаях, когда требуются ответы в реальном времени, таких как автономное вождение или медицинская диагностика.

    В последние годы нейронные сети достигли значительного прогресса в методах оптимизации моделей, что помогает в развертывании и инференсе на этих небольших устройствах. Данный обзор представляет собой подробное исследование прогресса и последних достижений в оптимизации нейронных сетей, сосредотачиваясь на ключевых областях, таких как квантизация, прореживание, дистилляция знаний и поиск архитектур нейронных сетей. Обзор рассматривает, как эти алгоритмические решения развивались и как новые подходы улучшили существующие методы, делая нейронные сети более эффективными. Статья предназначена для исследователей, практиков и инженеров в области машинного обучения, которые могут быть незнакомы с этими методами, но хотят изучить доступные техники. В работе подчеркиваются текущие исследования в области оптимизации нейронных сетей для достижения лучшей производительности, снижения потребления энергии и ускорения времени обучения, что играет важную роль в дальнейшей масштабируемости нейронных сетей. Кроме того, в обзоре определяются пробелы в текущих исследованиях и закладывается основа для будущих исследований, направленных на повышение применимости и эффективности существующих стратегий оптимизации.

    Khan S.A., Shulepina S., Shulepin D., Lukmanov R.A.
    Review of algorithmic solutions for deployment of neural networks on lite devices
    Computer Research and Modeling, 2024, v. 16, no. 7, pp. 1601-1619

    In today’s technology-driven world, lite devices like Internet of Things (IoT) devices and microcontrollers (MCUs) are becoming increasingly common. These devices are more energyefficient and affordable, often with reduced features compared to the standard versions such as very limited memory and processing power for typical machine learning models. However, modern machine learning models can have millions of parameters, resulting in a large memory footprint. This complexity not only makes it difficult to deploy these large models on resource constrained devices but also increases the risk of latency and inefficiency in processing, which is crucial in some cases where real-time responses are required such as autonomous driving and medical diagnostics. In recent years, neural networks have seen significant advancements in model optimization techniques that help deployment and inference on these small devices. This narrative review offers a thorough examination of the progression and latest developments in neural network optimization, focusing on key areas such as quantization, pruning, knowledge distillation, and neural architecture search. It examines how these algorithmic solutions have progressed and how new approaches have improved upon the existing techniques making neural networks more efficient. This review is designed for machine learning researchers, practitioners, and engineers who may be unfamiliar with these methods but wish to explore the available techniques. It highlights ongoing research in optimizing networks for achieving better performance, lowering energy consumption, and enabling faster training times, all of which play an important role in the continued scalability of neural networks. Additionally, it identifies gaps in current research and provides a foundation for future studies, aiming to enhance the applicability and effectiveness of existing optimization strategies.

Журнал индексируется в Scopus

Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU

Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science

Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"

Международная Междисциплинарная Конференция МАТЕМАТИКА. КОМПЬЮТЕР. ОБРАЗОВАНИЕ.