Все выпуски
- 2025 Том 17
- 2024 Том 16
- 2023 Том 15
- 2022 Том 14
- 2021 Том 13
- 2020 Том 12
- 2019 Том 11
- 2018 Том 10
- 2017 Том 9
- 2016 Том 8
- 2015 Том 7
- 2014 Том 6
- 2013 Том 5
- 2012 Том 4
- 2011 Том 3
- 2010 Том 2
- 2009 Том 1
-
Гиперграфовый подход в декомпозиции сложных технических систем
Компьютерные исследования и моделирование, 2020, т. 12, № 5, с. 1007-1022В статье рассматривается математическая модель декомпозиции сложного изделия на сборочные единицы. Это важная инженерная задача, которая влияет на организацию дискретного производства и его и оперативное управление. Приведен обзор современных подходов к математическому моделированию и автоматизированному синтезу декомпозиций. В них математическими моделями структур технических систем служат графы, сети, матрицы и др. Эти модели описывают механическую структуру как бинарное отношение на множестве элементов системы. Геометрическая координация и целостность машин и механических приборов в процессе изготовления достигаются при помощи базирования. В общем случае базирование может осуществляться относительно нескольких элементов одновременно. Поэтому оно представляет собой отношение переменной местности, которое не может быть корректно описано в терминах бинарных математических структур. Описана новая гиперграфовая модель механической структуры технической системы. Эта модель позволяет дать точную и лаконичную формализацию сборочных операций и процессов. Рассматриваются сборочные операции, которые выполняются двумя рабочими органами и заключаются в реализации механических связей. Такие операции называются когерентными и секвенциальными. Это преобладающий тип операций в современной промышленной практике. Показано, что математическим описанием такой операции является нормальное стягивание ребра гиперграфа. Последовательность стягиваний, трансформирующая гиперграф в точку, представляет собой математическую модель сборочного процесса. Приведены доказанные автором две важные теоремы о свойствах стягиваемых гиперграфов и подграфов. Введено понятие $s$-гиперграфа. $S$-гиперграфы являются корректными математическими моделями механических структур любых собираемых технических систем. Декомпозиция изделия на сборочные единицы поставлена как разрезание $s$-гиперграфа на $s$-подграфы. Задача разрезания описана в терминах дискретного математического программирования. Получены математические модели структурных, топологических и технологических ограничений. Предложены целевые функции, формализующие оптимальный выбор проектных решений в различных ситуациях. Разработанная математическая модель декомпозиции изделия является гибкой и открытой. Она допускает расширения, учитывающие особенности изделия и его производства.
Ключевые слова: сборка, сборочная единица, структура изделия, декомпозиция на сборочные единицы, система автоматизированного проектирования, граф связей, гиперграф, дискретное математическое программирование.
Hypergraph approach in the decomposition of complex technical systems
Computer Research and Modeling, 2020, v. 12, no. 5, pp. 1007-1022The article considers a mathematical model of decomposition of a complex product into assembly units. This is an important engineering problem, which affects the organization of discrete production and its operational management. A review of modern approaches to mathematical modeling and automated computer-aided of decompositions is given. In them, graphs, networks, matrices, etc. serve as mathematical models of structures of technical systems. These models describe the mechanical structure as a binary relation on a set of system elements. The geometrical coordination and integrity of machines and mechanical devices during the manufacturing process is achieved by means of basing. In general, basing can be performed on several elements simultaneously. Therefore, it represents a variable arity relation, which can not be correctly described in terms of binary mathematical structures. A new hypergraph model of mechanical structure of technical system is described. This model allows to give an adequate formalization of assembly operations and processes. Assembly operations which are carried out by two working bodies and consist in realization of mechanical connections are considered. Such operations are called coherent and sequential. This is the prevailing type of operations in modern industrial practice. It is shown that the mathematical description of such operation is normal contraction of an edge of the hypergraph. A sequence of contractions transforming the hypergraph into a point is a mathematical model of the assembly process. Two important theorems on the properties of contractible hypergraphs and their subgraphs proved by the author are presented. The concept of $s$-hypergraphs is introduced. $S$-hypergraphs are the correct mathematical models of mechanical structures of any assembled technical systems. Decomposition of a product into assembly units is defined as cutting of an $s$-hypergraph into $s$-subgraphs. The cutting problem is described in terms of discrete mathematical programming. Mathematical models of structural, topological and technological constraints are obtained. The objective functions are proposed that formalize the optimal choice of design solutions in various situations. The developed mathematical model of product decomposition is flexible and open. It allows for extensions that take into account the characteristics of the product and its production.
-
A hybrid multi-objective carpool route optimization technique using genetic algorithm and A* algorithm
Компьютерные исследования и моделирование, 2021, т. 13, № 1, с. 67-85Carpooling has gained considerable importance as an effective solution for reducing pollution, mitigation of traffic and congestion on the roads, reduced demand for parking facilities, lesser energy and fuel consumption and most importantly, reduction in carbon emission, thus improving the quality of life in cities. This work presents a hybrid GA-A* algorithm to obtain optimal routes for the carpooling problem in the domain of multiobjective optimization having multiple conflicting objectives. Though the Genetic Algorithm provides optimal solutions, the A* algorithm because of its efficiency in providing the shortest route between any two points based on heuristics, enhances the optimal routes obtained using the Genetic algorithm. The refined routes obtained using the GA-A* algorithm, are further subjected to dominance test to obtain non-dominating solutions based on Pareto-Optimality. The routes obtained maximize the profit of the service provider by minimizing the travel and detour distance as well as pick-up/drop costs while maximizing the utilization of the car. The proposed algorithm has been implemented over the Salt Lake area of Kolkata. Route distance and detour distance for the optimal routes obtained using the proposed algorithm are consistently lesser for the same number of passengers when compared to the corresponding results obtained from an existing algorithm. Various statistical analysis like boxplots have also confirmed that the proposed algorithm regularly performed better than the existing algorithm using only Genetic Algorithm.
A hybrid multi-objective carpool route optimization technique using genetic algorithm and A* algorithm
Computer Research and Modeling, 2021, v. 13, no. 1, pp. 67-85Carpooling has gained considerable importance as an effective solution for reducing pollution, mitigation of traffic and congestion on the roads, reduced demand for parking facilities, lesser energy and fuel consumption and most importantly, reduction in carbon emission, thus improving the quality of life in cities. This work presents a hybrid GA-A* algorithm to obtain optimal routes for the carpooling problem in the domain of multiobjective optimization having multiple conflicting objectives. Though the Genetic Algorithm provides optimal solutions, the A* algorithm because of its efficiency in providing the shortest route between any two points based on heuristics, enhances the optimal routes obtained using the Genetic algorithm. The refined routes obtained using the GA-A* algorithm, are further subjected to dominance test to obtain non-dominating solutions based on Pareto-Optimality. The routes obtained maximize the profit of the service provider by minimizing the travel and detour distance as well as pick-up/drop costs while maximizing the utilization of the car. The proposed algorithm has been implemented over the Salt Lake area of Kolkata. Route distance and detour distance for the optimal routes obtained using the proposed algorithm are consistently lesser for the same number of passengers when compared to the corresponding results obtained from an existing algorithm. Various statistical analysis like boxplots have also confirmed that the proposed algorithm regularly performed better than the existing algorithm using only Genetic Algorithm.
-
Особенности маршрутизации общественного транспорта в городах разных видов
Компьютерные исследования и моделирование, 2021, т. 13, № 2, с. 381-394В статье представлена классификация городов с учетом планировочных особенностей и возможных транспортных решений для городов различных типов. Также обсуждаются примеры различных стратегий развития городского общественного транспорта в России и странах Европейского союза с сопоставлением их эффективности. В статье приводятся примеры влияния городского планирования на мобильность граждан. Для реализации сложных стратегических решений необходимо использовать микро- и макромодели, которые позволяют сравнивать ситуации «как есть» и «как будет» для прогнозирования последствий. Кроме того, авторы предлагают методику совершенствования маршрутной сети общественного транспорта и улично-дорожной сети, которая включает определение потребностей населения в трудовых и учебных корреспонденциях, идентификацию узких мест улично-дорожной сети, разработку имитационных моделей и выработку рекомендаций по результатам эксперимента на моделях, а также расчет эффективности, включающий расчет положительного социального эффекта, экономическую эффективность, повышение экологичности и устойчивости городской транспортной системы. Для обоснования предложенной методологии были построены макро- и микромодели исследуемого города с учетом пространственной планировки и других особенностей города. Таким образом, на примере города Набережные Челны показано, что использование нашей методологии может помочь улучшить ситуацию на дорогах за счет оптимизации сети автобусных маршрутов и дорожной инфраструктуры. Результаты показали, что при реализации предложенных решений можно уменьшить транспортную нагрузку на узкие места, количество перекрывающихся автобусных маршрутов, а также плотность движения.
Ключевые слова: устойчивый транспорт, эффективность транспортной системы, маршрутная сеть, общественный транспорт.
Specifics of public transport routing in cities of different types
Computer Research and Modeling, 2021, v. 13, no. 2, pp. 381-394This article presents a classification of cities, taking into account their spatial planning and possible transport solutions for cities of various types. It also discusses examples of various strategies for the development of urban public transport in Russia and the European Union with a comparison of their efficiency. The article gives examples of the impact of urban planning on mobility of citizens. To implement complex strategic decisions, it is necessary to use micro and macro models which allow a comparison of situations “as is” and “as to be” to predict consequences. In addition, the authors propose a methodology to improve public transport route network and road network, which includes determining population needs in working and educational correspondences, identifying bottlenecks in the road network, developing simulation models and developing recommendations based on the simulation results, as well as the calculation of efficiency, including the calculation of a positive social effect, economic efficiency, environmental friendliness and sustainability of the urban transport system. To prove the suggested methodology, the macro and micro models of the city under study were built taking into account the spatial planning and other specifics of the city. Thus, the case study of the city of Naberezhnye Chelny shows that the use of our methodology can help to improve the situation on the roads by optimizing the bus route network and the road infrastructure. The results showed that by implementing the proposed solutions one can decrease the amount of transport load on the bottlenecks, the number of overlapping bus routes and the traffic density.
-
A hybrid regularizers approach based model for restoring image corrupted by Poisson noise
Компьютерные исследования и моделирование, 2021, т. 13, № 5, с. 965-978Image denoising is one of the fundamental problems in digital image processing. This problem usually refers to the reconstruction of an image from an observed image degraded by noise. There are many factors that cause this degradation such as transceiver equipment, or environmental influences, etc. In order to obtain higher quality images, many methods have been proposed for image denoising problem. Most image denoising method are based on total variation (TV) regularization to develop efficient algorithms for solving the related optimization problem. TV-based models have become a standard technique in image restoration with the ability to preserve image sharpness.
In this paper, we focus on Poisson noise usually appearing in photon-counting devices. We propose an effective regularization model based on combination of first-order and fractional-order total variation for image reconstruction corrupted by Poisson noise. The proposed model allows us to eliminate noise while edge preserving. An efficient alternating minimization algorithm is employed to solve the optimization problem. Finally, provided numerical results show that our proposed model can preserve more details and get higher image visual quality than recent state-of-the-art methods.
A hybrid regularizers approach based model for restoring image corrupted by Poisson noise
Computer Research and Modeling, 2021, v. 13, no. 5, pp. 965-978Image denoising is one of the fundamental problems in digital image processing. This problem usually refers to the reconstruction of an image from an observed image degraded by noise. There are many factors that cause this degradation such as transceiver equipment, or environmental influences, etc. In order to obtain higher quality images, many methods have been proposed for image denoising problem. Most image denoising method are based on total variation (TV) regularization to develop efficient algorithms for solving the related optimization problem. TV-based models have become a standard technique in image restoration with the ability to preserve image sharpness.
In this paper, we focus on Poisson noise usually appearing in photon-counting devices. We propose an effective regularization model based on combination of first-order and fractional-order total variation for image reconstruction corrupted by Poisson noise. The proposed model allows us to eliminate noise while edge preserving. An efficient alternating minimization algorithm is employed to solve the optimization problem. Finally, provided numerical results show that our proposed model can preserve more details and get higher image visual quality than recent state-of-the-art methods.
-
О связях задач стохастической выпуклой минимизации с задачами минимизации эмпирического риска на шарах в $p$-нормах
Компьютерные исследования и моделирование, 2022, т. 14, № 2, с. 309-319В данной работе рассматриваются задачи выпуклой стохастической оптимизации, возникающие в анализе данных (минимизация функции риска), а также в математической статистике (минимизация функции правдоподобия). Такие задачи могут быть решены как онлайн-, так и офлайн-методами (метод Монте-Карло). При офлайн-подходе исходная задача заменяется эмпирической задачей — задачей минимизации эмпирического риска. В современном машинном обучении ключевым является следующий вопрос: какой размер выборки (количество слагаемых в функционале эмпирического риска) нужно взять, чтобы достаточно точное решение эмпирической задачи было решением исходной задачи с заданной точностью. Базируясь на недавних существенных продвижениях в машинном обучении и оптимизации для решения выпуклых стохастических задач на евклидовых шарах (или всем пространстве), мы рассматриваем случай произвольных шаров в $p$-нормах и исследуем, как влияет выбор параметра $p$ на оценки необходимого числа слагаемых в функции эмпирического риска.
В данной работе рассмотрены как выпуклые задачи оптимизации, так и седловые. Для сильно выпуклых задач были обобщены уже имеющиеся результаты об одинаковых размерах выборки в обоих подходах (онлайн и офлайн) на произвольные нормы. Более того, было показано, что условие сильной выпуклости может быть ослаблено: полученные результаты справедливы для функций, удовлетворяющих условию квадратичного роста. В случае когда данное условие не выполняется, предлагается использовать регуляризацию исходной задачи в произвольной норме. В отличие от выпуклых задач седловые задачи являются намного менее изученными. Для седловых задач размер выборки был получен при условии $\gamma$-роста седловой функции по разным группам переменных. Это условие при $\gamma = 1$ есть не что иное, как аналог условия острого минимума в выпуклых задач. В данной статье было показано, что размер выборки в случае острого минимума (седла) почти не зависит от желаемой точности решения исходной задачи.
Ключевые слова: выпуклая оптимизация, стохастическая оптимизация, регуляризация, острый минимум, условие квадратичного роста, метод Монте-Карло.
On the relations of stochastic convex optimization problems with empirical risk minimization problems on $p$-norm balls
Computer Research and Modeling, 2022, v. 14, no. 2, pp. 309-319In this paper, we consider convex stochastic optimization problems arising in machine learning applications (e. g., risk minimization) and mathematical statistics (e. g., maximum likelihood estimation). There are two main approaches to solve such kinds of problems, namely the Stochastic Approximation approach (online approach) and the Sample Average Approximation approach, also known as the Monte Carlo approach, (offline approach). In the offline approach, the problem is replaced by its empirical counterpart (the empirical risk minimization problem). The natural question is how to define the problem sample size, i. e., how many realizations should be sampled so that the quite accurate solution of the empirical problem be the solution of the original problem with the desired precision. This issue is one of the main issues in modern machine learning and optimization. In the last decade, a lot of significant advances were made in these areas to solve convex stochastic optimization problems on the Euclidean balls (or the whole space). In this work, we are based on these advances and study the case of arbitrary balls in the $p$-norms. We also explore the question of how the parameter $p$ affects the estimates of the required number of terms as a function of empirical risk.
In this paper, both convex and saddle point optimization problems are considered. For strongly convex problems, the existing results on the same sample sizes in both approaches (online and offline) were generalized to arbitrary norms. Moreover, it was shown that the strong convexity condition can be weakened: the obtained results are valid for functions satisfying the quadratic growth condition. In the case when this condition is not met, it is proposed to use the regularization of the original problem in an arbitrary norm. In contradistinction to convex problems, saddle point problems are much less studied. For saddle point problems, the sample size was obtained under the condition of $\gamma$-growth of the objective function. When $\gamma = 1$, this condition is the condition of sharp minimum in convex problems. In this article, it was shown that the sample size in the case of a sharp minimum is almost independent of the desired accuracy of the solution of the original problem.
-
Молекулярно-динамические исследования равновесных конфигураций одноименно заряженных частиц в планарных системах с круговой симметрией
Компьютерные исследования и моделирование, 2022, т. 14, № 3, с. 609-618В данной работе представлены результаты численного анализа равновесных конфигураций отрицательно заряженных частиц (электронов), запертых в круговой области бесконечным внешним потенциалом на ее границе. Для поиска устойчивых конфигураций с минимальной энергией авторами разработан гибридный вычислительный алгоритм. Основой алгоритма являются интерполяционные формулы, полученные из анализа равновесных конфигураций, полученных с помощью вариационного принципа минимума энергии для произвольного, но конечного числа частиц в циркулярной модели. Решения нелинейных уравнений данной модели предсказывают формирование оболочечной структуры в виде колец (оболочек), заполненных электронами, число которых уменьшается при переходе от внешнего кольца к внутренним. Число колец зависит от полного числа заряженных частиц. Полученные интерполяционные формулы распределения полного числа электронов по кольцам используются в качестве начальных конфигураций для метода молекулярной динамики. Данный подход позволяет значительно повысить скорость достижения равновесной конфигурации для произвольно выбранного числа частиц по сравнению с алгоритмом имитации отжига Метрополиса и другими алгоритмами, основанными на методах глобальной оптимизации.
Molecular dynamics studies of equilibrium configurations of equally charged particles in planar systems with circular symmetry
Computer Research and Modeling, 2022, v. 14, no. 3, pp. 609-618The equilibrium configurations of charged electrons, confined in the hard disk potential, are analysed by means of the hybrid numerical algorithm. The algorithm is based on the interpolation formulas, that are obtained from the analysis of the equilibrium configurations, provided by the variational principle developed in the circular model. The solution of the nonlinear equations of the circular model yields the formation of the shell structure which is composed of the series of rings. Each ring contains a certain number of particles, which decreases as one moves from the boundary ring to the central one. The number of rings depends on the total number of electrons. The interpolation formulas provide the initial configurations for the molecular dynamics calculations. This approach makes it possible to significantly increase the speed at which an equilibrium configuration is reached for an arbitrarily chosen number of particles compared to the Metropolis annealing simulation algorithm and other algorithms based on global optimization methods.
-
Транспортное моделирование: усреднение ценовых матриц
Компьютерные исследования и моделирование, 2023, т. 15, № 2, с. 317-327В данной работе рассматриваются различные подходы к усреднению обобщенных цен передвижений, рассчитанных для разных способов передвижения в транспортной сети. Под способом передвижения понимается как вид транспорта, например легковой автомобиль или транспорт общего пользования, так и передвижение без использования транспорта, например пешком. Задача расчета матриц передвижений включает в себя задачу вычисления суммарных матриц, иными словами — оценку общего спроса на передвижения всеми способами, а также задачу расщепления матриц по способам передвижений, называемого также модальным расщеплением. Для расчета матриц передвижений используют гравитационные, энтропийные и иные модели, в которых вероятность передвижения между районами оценивается на основе некоторой меры удаленности этих районов друг от друга. Обычно в качестве меры дальности используется обобщенная цена передвижения по оптимальному пути между районами. Однако обобщенная цена передвижения отличается для разных способов передвижения. При расчете суммарных матриц передвижений возникает необходимость усреднения обобщенных цен по способам передвижения. К процедуре усреднения предъявляется естественное требование монотонности по всем аргументам. Этому требованию не удовлетворяют некоторые часто применяемые на практике способы усреднения, например усреднение с весами. Задача модального расщепления решается применением методов теории дискретного выбора. В частности, в рамках теории дискретного выбора разработаны корректные методы усреднения полезности альтернатив, монотонные по всем аргументам. Авторы предлагают некоторую адаптацию методов теории дискретного выбора для применения к вычислению усредненной цены передвижений в гравитационной и энтропийной моделях. Перенос формул усреднения из контекста модели модального расщепления в модель расчета матриц передвижений требует ввода новых параметров и вывода условий на возможное значение этих параметров, что и было проделано в данной статье. Также были рассмотрены вопросы перекалибровки гравитационной функции, необходимой при переходе на новый метод усреднения, если имеющаяся функция откалибрована с учетом использования средневзвешенной цены. Предложенные методики были реализованы на примере небольшого фрагмента транспортной сети. Приведены результаты расчетов, демонстрирующие преимущество предложенных методов.
Ключевые слова: мультиномиальный логит, модель дискретного выбора, модальный выбор, гравитационная функция.
Transport modeling: averaging price matrices
Computer Research and Modeling, 2023, v. 15, no. 2, pp. 317-327This paper considers various approaches to averaging the generalized travel costs calculated for different modes of travel in the transportation network. The mode of transportation is understood to mean both the mode of transport, for example, a car or public transport, and movement without the use of transport, for example, on foot. The task of calculating the trip matrices includes the task of calculating the total matrices, in other words, estimating the total demand for movements by all modes, as well as the task of splitting the matrices according to the mode, also called modal splitting. To calculate trip matrices, gravitational, entropy and other models are used, in which the probability of movement between zones is estimated based on a certain measure of the distance of these zones from each other. Usually, the generalized cost of moving along the optimal path between zones is used as a distance measure. However, the generalized cost of movement differs for different modes of movement. When calculating the total trip matrices, it becomes necessary to average the generalized costs by modes of movement. The averaging procedure is subject to the natural requirement of monotonicity in all arguments. This requirement is not met by some commonly used averaging methods, for example, averaging with weights. The problem of modal splitting is solved by applying the methods of discrete choice theory. In particular, within the framework of the theory of discrete choice, correct methods have been developed for averaging the utility of alternatives that are monotonic in all arguments. The authors propose some adaptation of the methods of the theory of discrete choice for application to the calculation of the average cost of movements in the gravitational and entropy models. The transfer of averaging formulas from the context of the modal splitting model to the trip matrix calculation model requires the introduction of new parameters and the derivation of conditions for the possible value of these parameters, which was done in this article. The issues of recalibration of the gravitational function, which is necessary when switching to a new averaging method, if the existing function is calibrated taking into account the use of the weighted average cost, were also considered. The proposed methods were implemented on the example of a small fragment of the transport network. The results of calculations are presented, demonstrating the advantage of the proposed methods.
-
Расчетное моделирование теплофизических процессов в высокотемпературном газоохлаждаемом реакторе
Компьютерные исследования и моделирование, 2023, т. 15, № 4, с. 895-906В настоящее время в Российской Федерации разрабатывается высокотемпературный газоохлаждаемый реактор, являющийся составной частью атомной энерготехнологической станции, предназначенной для крупномасштабного производства водорода. При разработке проекта высокотемпературного газоохлаждаемого реактора одной из ключевых задач является расчетное обоснование принятой конструкции.
В статье приводится методика расчетного анализа теплофизических характеристик высокотемпературного газоохлаждаемого реактора. Методика базируется на использовании современных вычислительных программ для электронно-вычислительных машин.
Выполнение задачи теплофизического расчета реактора в целоми активной зоны в частности проводилось в три этапа. Первый этап заключается в обосновании нейтронно-физических характеристик активной зоны блочного типа в процессе выгорания с использованием программы MCU-HTR, основанной на методе Монте-Карло. Вторым и третьим этапами являются исследования течения теплоносителя и температурного состояния реактора и активной зоны в трехмерной постановке с требуемой степенью детализации с помощью программ FlowVision и ANSYS.
Для проведения расчетных исследований были разработаны расчетные модели проточной части реактора и колонны тепловыделяющих сборок.
По результатам расчетного моделирования оптимизированы конструкция опорных колонн и нейтронно-физические параметры тепловыделяющей сборки. Это привело к снижению суммарного гидравлического сопротивления реактора и максимальной температуры топливных элементов.
Показана зависимость максимальной температуры топлива от величины коэффициентов неравномерности энерговыделения, определяемой расположением поглощающих стержней и компактов выгорающего поглотителя в тепловыделяющей сборке.
Ключевые слова: высокотемпературный газоохлаждаемый реактор, ВТГР, активная зона, тепловыделяющая сборка, расчетная модель, теплофизика, теплогидравлика.
Computational modeling of the thermal and physical processes in the high-temperature gas-cooled reactor
Computer Research and Modeling, 2023, v. 15, no. 4, pp. 895-906The development of a high-temperature gas-cooled reactor (HTGR) constituting a part of nuclear power-and-process station and intended for large-scale hydrogen production is now in progress in the Russian Federation. One of the key objectives in development of the high-temperature gas-cooled reactor is the computational justification of the accepted design.
The article gives the procedure for the computational analysis of thermal and physical characteristics of the high-temperature gas-cooled reactor. The procedure is based on the use of the state-of-the-art codes for personal computer (PC).
The objective of thermal and physical analysis of the reactor as a whole and of the core in particular was achieved in three stages. The idea of the first stage is to justify the neutron physical characteristics of the block-type core during burn-up with the use of the MCU-HTR code based on the Monte Carlo method. The second and the third stages are intended to study the coolant flow and the temperature condition of the reactor and the core in 3D with the required degree of detailing using the FlowVision and the ANSYS codes.
For the purpose of carrying out the analytical studies the computational models of the reactor flow path and the fuel assembly column were developed.
As per the results of the computational modeling the design of the support columns and the neutron physical characteristics of the fuel assembly were optimized. This results in the reduction of the total hydraulic resistance of the reactor and decrease of the maximum temperature of the fuel elements.
The dependency of the maximum fuel temperature on the value of the power peaking factors determined by the arrangement of the absorber rods and of the compacts of burnable absorber in the fuel assembly is demonstrated.
-
Задачи и алгоритмы оптимальной кластеризации многомерных объектов по множеству разнородных показателей и их приложения в медицине
Компьютерные исследования и моделирование, 2024, т. 16, № 3, с. 673-693Работа посвящена описанию авторских формальных постановок задачи кластеризации при заданном числе кластеров, алгоритмам их решения, а также результатам применения этого инструментария в медицине.
Решение сформулированных задач точными алгоритмами реализаций даже относительно невысоких размерностей до выполнения условий оптимальности невозможно за сколько-нибудь рациональное время по причине их принадлежности к классу NP.
В связи с этим нами предложен гибридный алгоритм, сочетающий преимущества точных методов на базе кластеризации в парных расстояниях на начальном этапе с быстродействием методов решения упрощенных задач разбиения по центрам кластеров на завершающем этапе. Для развития данного направления разработан последовательный гибридный алгоритм кластеризации с использованием случайного поиска в парадигме роевого интеллекта. В статье приведено его описание и представлены результаты расчетов прикладных задач кластеризации.
Для выяснения эффективности разработанного инструментария оптимальной кластеризации многомерных объектов по множеству разнородных показателей был выполнен ряд вычислительных экспериментов с использованием массивов данных, включающих социально-демографические, клинико-анамнестические, электроэнцефалографические и психометрические данные когнитивного статуса пациентов кардиологической клиники. Получено эксперимен- тальное доказательство эффективности применения алгоритмов локального поиска в парадигме роевого интеллекта в рамках гибридного алгоритма при решении задач оптимальной кластеризации. Результаты вычислений свидетельствуют о фактическом разрешении основной проблемы применения аппарата дискретной оптимизации — ограничения доступных размерностей реализаций задач. Нами показано, что эта проблема снимается при сохранении приемлемой близости результатов кластеризации к оптимальным.
Прикладное значение полученных результатов кластеризации обусловлено также тем, что разработанный инструментарий оптимальной кластеризации дополнен оценкой стабильности сформированных кластеров, что позволяет к известным факторам (наличие стеноза или старший возраст) дополнительно выделить тех пациентов, когнитивные ресурсы которых оказываются недостаточны, чтобы преодолеть влияние операционной анестезии, вследствие чего отмечается однонаправленный эффект послеоперационного ухудшения показателей сложной зрительно-моторной реакции, внимания и памяти. Этот эффект свидетельствует о возможности дифференцированно классифицировать пациентов с использованием предлагаемого инструментария.
Ключевые слова: оптимальная кластеризация, парные расстояния, центры кластеров, гибридный алгоритм, локальный поиск, роевой интеллект.
Tasks and algorithms for optimal clustering of multidimensional objects by a variety of heterogeneous indicators and their applications in medicine
Computer Research and Modeling, 2024, v. 16, no. 3, pp. 673-693The work is devoted to the description of the author’s formal statements of the clustering problem for a given number of clusters, algorithms for their solution, as well as the results of using this toolkit in medicine.
The solution of the formulated problems by exact algorithms of implementations of even relatively low dimensions before proving optimality is impossible in a finite time due to their belonging to the NP class.
In this regard, we have proposed a hybrid algorithm that combines the advantages of precise methods based on clustering in paired distances at the initial stage with the speed of methods for solving simplified problems of splitting by cluster centers at the final stage. In the development of this direction, a sequential hybrid clustering algorithm using random search in the paradigm of swarm intelligence has been developed. The article describes it and presents the results of calculations of applied clustering problems.
To determine the effectiveness of the developed tools for optimal clustering of multidimensional objects according to a variety of heterogeneous indicators, a number of computational experiments were performed using data sets including socio-demographic, clinical anamnestic, electroencephalographic and psychometric data on the cognitive status of patients of the cardiology clinic. An experimental proof of the effectiveness of using local search algorithms in the paradigm of swarm intelligence within the framework of a hybrid algorithm for solving optimal clustering problems has been obtained.
The results of the calculations indicate the actual resolution of the main problem of using the discrete optimization apparatus — limiting the available dimensions of task implementations. We have shown that this problem is eliminated while maintaining an acceptable proximity of the clustering results to the optimal ones. The applied significance of the obtained clustering results is also due to the fact that the developed optimal clustering toolkit is supplemented by an assessment of the stability of the formed clusters, which allows for known factors (the presence of stenosis or older age) to additionally identify those patients whose cognitive resources are insufficient to overcome the influence of surgical anesthesia, as a result of which there is a unidirectional effect of postoperative deterioration of complex visual-motor reaction, attention and memory. This effect indicates the possibility of differentiating the classification of patients using the proposed tools.
-
Обзор алгоритмических решений для развертывания нейронных сетей на легких устройствах
Компьютерные исследования и моделирование, 2024, т. 16, № 7, с. 1601-1619В современном мире, ориентированном на технологии, легкие устройства, такие как устройства Интернета вещей (IoT) и микроконтроллеры (MCU), становятся все более распространенными. Эти устройства более энергоэффективны и доступны по цене, но часто обладают урезанными возможностями, по сравнению со стандартными версиями, такими как ограниченная память и вычислительная мощность. Современные модели машинного обучения могут содержать миллионы параметров, что приводит к значительному росту требований по объему памяти. Эта сложность не только затрудняет развертывание больших моделей на устройствах с ограниченными ресурсами, но и увеличивает риск задержек и неэффективности при обработке данных, что критично в случаях, когда требуются ответы в реальном времени, таких как автономное вождение или медицинская диагностика.
В последние годы нейронные сети достигли значительного прогресса в методах оптимизации моделей, что помогает в развертывании и инференсе на этих небольших устройствах. Данный обзор представляет собой подробное исследование прогресса и последних достижений в оптимизации нейронных сетей, сосредотачиваясь на ключевых областях, таких как квантизация, прореживание, дистилляция знаний и поиск архитектур нейронных сетей. Обзор рассматривает, как эти алгоритмические решения развивались и как новые подходы улучшили существующие методы, делая нейронные сети более эффективными. Статья предназначена для исследователей, практиков и инженеров в области машинного обучения, которые могут быть незнакомы с этими методами, но хотят изучить доступные техники. В работе подчеркиваются текущие исследования в области оптимизации нейронных сетей для достижения лучшей производительности, снижения потребления энергии и ускорения времени обучения, что играет важную роль в дальнейшей масштабируемости нейронных сетей. Кроме того, в обзоре определяются пробелы в текущих исследованиях и закладывается основа для будущих исследований, направленных на повышение применимости и эффективности существующих стратегий оптимизации.
Ключевые слова: квантизация, поиск архитектуры нейронной сети, дистилляция знаний, обрезка, обучение с подкреплением, сжатие модели.
Review of algorithmic solutions for deployment of neural networks on lite devices
Computer Research and Modeling, 2024, v. 16, no. 7, pp. 1601-1619In today’s technology-driven world, lite devices like Internet of Things (IoT) devices and microcontrollers (MCUs) are becoming increasingly common. These devices are more energyefficient and affordable, often with reduced features compared to the standard versions such as very limited memory and processing power for typical machine learning models. However, modern machine learning models can have millions of parameters, resulting in a large memory footprint. This complexity not only makes it difficult to deploy these large models on resource constrained devices but also increases the risk of latency and inefficiency in processing, which is crucial in some cases where real-time responses are required such as autonomous driving and medical diagnostics. In recent years, neural networks have seen significant advancements in model optimization techniques that help deployment and inference on these small devices. This narrative review offers a thorough examination of the progression and latest developments in neural network optimization, focusing on key areas such as quantization, pruning, knowledge distillation, and neural architecture search. It examines how these algorithmic solutions have progressed and how new approaches have improved upon the existing techniques making neural networks more efficient. This review is designed for machine learning researchers, practitioners, and engineers who may be unfamiliar with these methods but wish to explore the available techniques. It highlights ongoing research in optimizing networks for achieving better performance, lowering energy consumption, and enabling faster training times, all of which play an important role in the continued scalability of neural networks. Additionally, it identifies gaps in current research and provides a foundation for future studies, aiming to enhance the applicability and effectiveness of existing optimization strategies.
Журнал индексируется в Scopus
Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU
Журнал входит в систему Российского индекса научного цитирования.
Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science
Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"