Все выпуски
- 2025 Том 17
- 2024 Том 16
- 2023 Том 15
- 2022 Том 14
- 2021 Том 13
- 2020 Том 12
- 2019 Том 11
- 2018 Том 10
- 2017 Том 9
- 2016 Том 8
- 2015 Том 7
- 2014 Том 6
- 2013 Том 5
- 2012 Том 4
- 2011 Том 3
- 2010 Том 2
- 2009 Том 1
-
Модель переключающегося режима воспроизводства с континуальным множеством производственных подсистем в условиях сбалансированного роста
Компьютерные исследования и моделирование, 2025, т. 17, № 3, с. 501-519В данной работе представлены новые результаты исследований, которые с 2011 года проводятся в Институте экономики РАН под руководством академика РАН В.И. Маевского. Эти работы направлены на развитие теории переключающегося воспроизводства и соответствующих математических моделей, особенностью которых является то, что в них в явном виде моделируется взаимодействие финансового и реального секторов экономики, а сама экономика страны дезагрегируется не по отраслевому принципу (машиностроение, сельское хозяйство, услуги и т. д.), а на производственные подсистемы, отличающиеся друг от друга возрастом основного капитала. Одна их математических сложностей работы с подобными моделями, называемыми моделями переключающегося режима воспроизводства (ПРВ), заключается в сложности моделирования конкурентных отношений между подсистемами разного возраста. Поэтому до сих пор в моделях ПРВ рассматривалось взаимодействие конечного числа производственных подсистем, сами модели имели дискретно-непрерывный характер, расчеты делались исключительно на ЭВМ, получение аналитических зависимостей было затруднено. В настоящей работе показано, что для частного случая сбалансированного экономического роста и континуального множества производственных подсистем возможно получение аналитических выражений, позволяющих лучше понять особенности влияния денежно-кредитной политики на экономическую динамику. Кроме чисто научного интереса это имеет важное практическое значение, поскольку позволяет оценивать возможную реакцию реального сектора экономики на изменения в денежно-кредитной сфере без проведения сложных имитационных расчетов.
Ключевые слова: переключающийся режим воспроизводства, мезоэкономическая модель, поколения основного капитала, денежная эмиссия, экономический рост.
The model of switching mode of reproduction with a continuous set of production subsystems under the conditions of balanced growth
Computer Research and Modeling, 2025, v. 17, no. 3, pp. 501-519This paper presents new research results that have been conducted at the Institute of Economics of the Russian Academy of Sciences since 2011 under the leadership of Academician of the Russian Academy of Sciences V. I.Mayevsky. These works are aimed at developing the theory of switching mode of reproduction and corresponding mathematical models, the peculiarity of which is that they explicitly model the interaction of the financial and real sectors of the economy, and the country’s economy itself is not disaggregated according to the sectoral principle (engineering, agriculture, services, etc.), but by production subsystems that differ from each other by the age of the fixed capital. One of the mathematical difficulties of working with such models, called models of switching mode of reproduction (SMR), is the difficulty of modeling competitive relationships between subsystems of different “ages”. Therefore, until now, the interaction of a finite number of production subsystems has been considered in the SMR models, the models themselves were of a discrete-continuous nature, calculations were done exclusively on computers, and obtaining analytical dependencies was difficult. This paper shows that for the special case of balanced economic growth and a continuum of production subsystems, it is possible to obtain analytical expressions that allow a better understanding of the impact of monetary policy on economic dynamics. In addition to purely scientific interest, this is of great practical importance, since it allows us to assess the possible reaction of the real sector of the economy to changes in the monetary sphere without conducting complex simulation calculations.
-
Использование метода нормированного размаха при анализе речевых патологий неврологического генеза
Компьютерные исследования и моделирование, 2014, т. 6, № 5, с. 775-791На основании модификации алгоритма вычисления нормированного размаха предлагается способ определения показателя Хёрста, а также оценки характерного времени, в течение которого показатель Хёрста остается постоянным. Разработан подход к упрощению автоматизации вычисления показателя Хёрста и увеличения его точности. Показатель Хёрста и характерное время вычислены для рядов мощностей речевых сигналов с различными моторными патологиями (афазии, дизартрии). Проведен их статистический анализ, произведена оценка корреляции между показателем Хёрста и характерным временем. Обсуждается возможность использования результатов в диагностике речевых патологий.
Ключевые слова: показатель Хёрста, нелинейная динамика, афазия, дизартрия, рандомизационный тест, диагностика.
R/S method application in neurological speech disorders analyses
Computer Research and Modeling, 2014, v. 6, no. 5, pp. 775-791Просмотров за год: 2. Цитирований: 2 (РИНЦ).Based on modified rescaled range scale computation algorithm, the technique of Hurst exponent and its characteristic time estimation is proposed. The approach of increase the accuracy and simplification automatic Hurst exponent calculation is developed. The Hurst exponent and characteristic time is calculated for power time sets of speech signals with various motor pathologies (aphasias and dysarthrias). Results is statistically analyzed, the correlation between Hurst exponent and characteristic time is estimated.
-
Анализ респираторных реакций человека в условиях измененной газовой среды на математической модели
Компьютерные исследования и моделирование, 2017, т. 9, № 2, с. 281-296Цель работы — обоснование и разработка методики прогноза динамики респираторных реакций человека на основе математического моделирования. Для достижения этой цели были поставлены и решены следующие задачи: разработаны и обоснованы общая структура и формализованное описание модели респираторной системы; построен и программно реализован алгоритм модели газообмена организма; проведены вычислительный эксперимент и проверка модели на адекватность на основе литературных данных и собственных экспериментальных исследований.
В данном варианте в комплексную модель вошел новый модифицированный вариант частной модели физико-химических свойств крови и кислотно-щелочного баланса. При разработке модели в основу формализованного описания была положена концепция разделения физиологической системы регуляции на активные и пассивные подсистемы регуляции. Разработка модели проводилась поэтапно. Комплексная модель газообмена состояла из следующих частных моделей: базовой биофизической модели системы газообмена; модели физико-химических свойств крови и кислотно-щелочного баланса; модели пассивных механизмов газообмена, разработанной на основе уравнений материального баланса Гродинза Ф.; модели химической регуляции, разработанной на основе многофакторной модели Грея Д.
При программной реализации модели расчеты выполнялись в среде программирования MatLab. Для решения уравнений использовался метод Рунге–Кутты–Фехлберга. При этом предполагается, что модель будет представлена в виде компьютерной исследовательской программы, позволяющей реализовать различные гипотезы о механизме наблюдаемых процессов. Рассчитаны предполагаемые величины основных показателей газообмена в условиях гиперкапнии и гипоксии. Результаты расчетов, как по характеру, так и количественно, достаточно хорошо согласуются с данными, полученными в исследованиях на испытателях. Проведенная проверка на адекватность подтвердила, что погрешность вычислений находится в пределах погрешности данных медико-биологических экспериментов. Модель можно использовать при теоретическом прогнозировании динамики респираторных реакций организма человека в условиях измененной газовой среды.
Ключевые слова: математическая модель, минутный объем дыхания, имитация, регуляция, дыхание, респираторная система, гипоксия, гиперкапния.
The analysis of respiratory reactions of the person in the conditions of the changed gas environment on mathematical model
Computer Research and Modeling, 2017, v. 9, no. 2, pp. 281-296Просмотров за год: 5.The aim of the work was to study and develop methods of forecasting the dynamics of the human respiratory reactions, based on mathematical modeling. To achieve this goal have been set and solved the following tasks: developed and justified the overall structure and formalized description of the model Respiro-reflex system; built and implemented the algorithm in software models of gas exchange of the body; computational experiments and checking the adequacy of the model-based Lite-ture data and our own experimental studies.
In this embodiment, a new comprehensive model entered partial model modified version of physicochemical properties and blood acid-base balance. In developing the model as the basis of a formalized description was based on the concept of separation of physiologically-fi system of regulation on active and passive subsystems regulation. Development of the model was carried out in stages. Integrated model of gas exchange consisted of the following special models: basic biophysical models of gas exchange system; model physicochemical properties and blood acid-base balance; passive mechanisms of gas exchange model developed on the basis of mass balance equations Grodinza F.; chemical regulation model developed on the basis of a multifactor model D. Gray.
For a software implementation of the model, calculations were made in MatLab programming environment. To solve the equations of the method of Runge–Kutta–Fehlberga. It is assumed that the model will be presented in the form of a computer research program, which allows implements vat various hypotheses about the mechanism of the observed processes. Calculate the expected value of the basic indicators of gas exchange under giperkap Britain and hypoxia. The results of calculations as the nature of, and quantity is good enough co-agree with the data obtained in the studies on the testers. The audit on Adek-vatnost confirmed that the error calculation is within error of copper-to-biological experiments. The model can be used in the theoretical prediction of the dynamics of the respiratory reactions of the human body in a changed atmosphere.
-
Борьба с экономической коррупцией при распределении ресурсов
Компьютерные исследования и моделирование, 2019, т. 11, № 1, с. 173-185В теоретико-игровой постановке рассмотрена модель борьбы с коррупцией при распределении ресурсов. Система распределения ресурсов включает в свой состав одного принципала (субъект управления верхнего уровня), одного или нескольких супервайзеров (субъектов среднего уровня) и нескольких агентов (субъекты нижнего уровня). Отношения между субъектами разных уровней строятся на основе иерархии: субъект верхнего уровня воздействует (управляет) на субъектов среднего уровня, а те, в свою очередь, на субъектов нижнего уровня. Предполагается, что коррупции подвержен средний уровень управления. Агенты предлагают супервайзеру взятки, в обмен на которые он предоставляет им дополнительные доли ресурса. Предположим также, что принципал не подвержен коррупции и является бескорыстным, не преследующим частных целей. Исследование модели проведено с точки зрения как супервайзера, так и агентов. C точки зрения агентов, возникает некооперативная игра, в которой находится равновесие Нэша. При этом задачи оптимального управления для частного вида входных функций решаются аналитически с помощью принципа максимума Понтрягина. C точки зрения супервайзера, возникает игра, которая ведется в соответствии с регламентом игры Гермейера Г2t. Указан алгоритм построения равновесия. Стратегия наказания находится аналитически. Стратегия поощрения в случае входных функций общего вида находится численно. Строится дискретный аналог непрерывной модели. Предполагается, что все субъекты управления могут изменять свои стратегии поведения в одни и те же моменты времени конечное число раз. В результате от задачи максимизации своего целевого функционала супервайзер переходит к задаче максимизации целевой функции многих переменных. Для нахождения ее наибольшего значения используется метод качественно репрезентативных сценариев. Идея этого метода состоит в том, что из множества потенциально возможных сценариев управления выбираются только сценарии, позволяющие представить качественно различные пути развития системы. В результате мощность этого множества не слишком велика и удается осуществить полный перебор качественно репрезентативных сценариев и найти стратегию поощрения агентов. После ее нахождения супервайзер предлагает агентам механизм управления с обратной связью по управлению, состоящий в наказании агентов при отклонении от выбранной супервайзером стратегии и поощрении в противном случае.
Ключевые слова: равновесие Нэша, равновесие Штакельберга, коррупция, игры Гермейера, супервайзер, принципал, агент, принцип максимума Понтрягина.
Struggle against economic corruption in resource allocation
Computer Research and Modeling, 2019, v. 11, no. 1, pp. 173-185Просмотров за год: 33. Цитирований: 1 (РИНЦ).A dynamic game theoretic model of struggle against corruption in resource allocation is considered. It is supposed that the system of resource allocation includes one principal, one or several supervisors, and several agents. The relations between them are hierarchical: the principal influences to the supervisors, and they in turn exert influence on the agents. It is assumed that the supervisor can be corrupted. The agents propose bribes to the supervisor who in exchange allocates additional resources to them. It is also supposed that the principal is not corrupted and does not have her own purposes. The model is investigated from the point of view of the supervisor and the agents. From the point of view of agents a non-cooperative game arises with a set of Nash equilibria as a solution. The set is found analytically on the base of Pontryagin maximum principle for the specific class of model functions. From the point of view of the supervisor a hierarchical Germeyer game of the type Г2t is built, and the respective algorithm of its solution is proposed. The punishment strategy is found analytically, and the reward strategy is built numerically on the base of a discrete analogue of the initial continuous- time model. It is supposed that all agents can change their strategies in the same time instants only a finite number of times. Thus, the supervisor can maximize his objective function of many variables instead of maximization of the objective functional. A method of qualitatively representative scenarios is used for the solution. The idea of this method consists in that it is possible to choose a very small number of scenarios among all potential ones that represent all qualitatively different trajectories of the system dynamics. These scenarios differ in principle while all other scenarios yield no essentially new results. Then a complete enumeration of the qualitatively representative scenarios becomes possible. After that, the supervisor reports to the agents the rewardpunishment control mechanism.
-
Поиск реализуемых энергоэффективных походок плоского пятизвенного двуногого робота с точечным контактом
Компьютерные исследования и моделирование, 2020, т. 12, № 1, с. 155-170В статье рассматривается процесс поиска опорных траекторий движения плоского пятизвенного двуногого шагающего робота с точечным контактом. Для этого используются метод приведения динамики к низкоразмерному нулевому многообразию с помощью наложения виртуальных связей и алгоритмы нелинейной оптимизации для поиска параметров наложенных связей. Проведен анализ влияния степени полиномов Безье, аппроксимирующих виртуальные связи, а также условия непрерывности управляющих воздействий на энергоэффективность движения. Численные расчеты показали, что на практике достаточно рассматривать полиномы со степенями 5 или 6, так как дальнейшее увеличение степени приводит к увеличению вычислительных затрат, но не гарантирует уменьшение энергозатрат походки. Помимо этого, было установлено, что введение ограничений на непрерывность управляющих воздействий не приводит к существенному уменьшению энергоэффективности и способствует реализуемости походки на реальном роботе благодаря плавному изменению крутящих моментов в приводах. В работе показано, что для решения задачи поиска минимума целевой функции в виде энергозатрат при наличии большого количества ограничений целесообразно на первом этапе найти допустимые точки в пространстве параметров, а на втором этапе — осуществлять поиск локальных минимумов, стартуя с этих точек. Для первого этапа предложен алгоритм расчета начальных приближений искомых параметров, позволяющий сократить время поиска траекторий (в среднем до 3-4 секунд) по сравнению со случайным начальным приближением. Сравнение значений целевых функций на первом и на втором этапах показывает, что найденные на втором этапе локальные минимумы дают в среднем двукратный выигрыш по энергоэффективности в сравнении со случайно найденной на первом этапе допустимой точкой. При этом времязатраты на выполнение локальной оптимизации на втором этапе являются существенными.
Ключевые слова: двуногий шагающий робот, неполноприводная система, гибридная система, оптимальная траектория.
Searching for realizable energy-efficient gaits of planar five-link biped with a point contact
Computer Research and Modeling, 2020, v. 12, no. 1, pp. 155-170In this paper, we discuss the procedure for finding nominal trajectories of the planar five-link bipedal robot with point contact. To this end we use a virtual constraints method that transforms robot’s dynamics to a lowdimensional zero manifold; we also use a nonlinear optimization algorithms to find virtual constraints parameters that minimize robot’s cost of transportation. We analyzed the effect of the degree of Bezier polynomials that approximate the virtual constraints and continuity of the torques on the cost of transportation. Based on numerical results we found that it is sufficient to consider polynomials with degrees between five and six, as further increase in the degree of polynomial results in increased computation time while it does not guarantee reduction of the cost of transportation. Moreover, it was shown that introduction of torque continuity constraints does not lead to significant increase of the objective function and makes the gait more implementable on a real robot.
We propose a two step procedure for finding minimum of the considered optimization problem with objective function in the form of cost of transportation and with high number of constraints. During the first step we solve a feasibility problem: remove cost function (set it to zero) and search for feasible solution in the parameter space. During the second step we introduce the objective function and use the solution found in the first step as initial guess. For the first step we put forward an algorithm for finding initial guess that considerably reduced optimization time of the first step (down to 3–4 seconds) compared to random initialization. Comparison of the objective function of the solutions found during the first and second steps showed that on average during the second step objective function was reduced twofold, even though overall computation time increased significantly.
-
Математическая модель биометрической системы распознавания по радужной оболочке глаза
Компьютерные исследования и моделирование, 2020, т. 12, № 3, с. 629-639Автоматическое распознавание личности по биометрическому признаку основано на уникальных особенностях или характеристиках людей. Процесс биометрической идентификации представляет собой формирование эталонных шаблонов и сравнение их с новыми входными данными. Алгоритмы распознавания по рисунку радужной оболочки глаза показали на практике высокую точность и малый процент ошибок идентификации. Преимущества радужки над другими биометрическими признаками определяется ее большей степенью свободы (около 249 степеней свободы), избыточной плотностью уникальных признаков и постоянностью во времени. Высокий уровень достоверности распознавания очень важен, потому что позволяет выполнять поиск по большим базам данных и работать в режиме идентификации один-ко-многим, в отличии от режима проверки один-к-одному, который применим дляне большого количества сравнений. Любая биометрическая система идентификации является вероятностной. Для описания качественных характеристик распознавания применяются: точность распознавания, вероятность ложного доступа и вероятность ложного отказа доступа. Эти характеристики позволяют сравнивать методы распознавания личности между собой и оценивать поведение системы в каких-либо условиях. В этой статье объясняется математическая модель биометрической идентификации по радужной оболочке глаза, ее характеристики и анализируются результаты сравнения модели с реальным процессом распознавания. Для решения этой задачи проводится обзор существующих методов идентификации по радужной оболочке глаза, основанных на различных способах формирования вектора уникальных признаков. Описывается разработанный программный комплекс на языке Python, который строит вероятностные распределения и генерирует большие наборы тестовых данных, которые могут быть использованы в том числе для обучения нейронной сети принятия решения об идентификации. В качестве практического применения модели предложен алгоритм синергии нескольких методов идентификации личности по радужной оболочке глаза, позволяющий увеличить качественные характеристики системы, в сравнении с применением каждого метода отдельно.
Ключевые слова: биометрическаяс истема, радужнаяо болочка, математическаям одель, коэффициент ложного доступа, коэффициент ложного отказа доступа.
Mathematical model of the biometric iris recognition system
Computer Research and Modeling, 2020, v. 12, no. 3, pp. 629-639Automatic recognition of personal identity by biometric features is based on unique peculiarities or characteristics of people. Biometric identification process consist in making of reference templates and comparison with new input data. Iris pattern recognition algorithms presents high accuracy and low identification errors percent on practice. Iris pattern advantages over other biometric features are determined by its high degree of freedom (nearly 249), excessive density of unique features and constancy. High recognition reliability level is very important because it provides search in big databases. Unlike one-to-one check mode that is applicable only to small calculation count it allows to work in one-to-many identification mode. Every biometric identification system appears to be probabilistic and qualitative characteristics description utilizes such parameters as: recognition accuracy, false acceptance rate and false rejection rate. These characteristics allows to compare identity recognition methods and asses the system performance under any circumstances. This article explains the mathematical model of iris pattern biometric identification and its characteristics. Besides, there are analyzed results of comparison of model and real recognition process. To make such analysis there was carried out the review of existing iris pattern recognition methods based on different unique features vector. The Python-based software package is described below. It builds-up probabilistic distributions and generates large test data sets. Such data sets can be also used to educate the identification decision making neural network. Furthermore, synergy algorithm of several iris pattern identification methods was suggested to increase qualitative characteristics of system in comparison with the use of each method separately.
-
Подход к оценке динамики уровня консолидированности отраcли
Компьютерные исследования и моделирование, 2023, т. 15, № 1, с. 129-140В данной статье нами предложен новый подход к анализу эконометрических параметров отрасли для уровня консолидированности отрасли. Исследование базируется на простой модели управления отраслью в соответствии с моделью из теории автоматического управления. Состояние отрасли оценивается на основе ежеквартальных эконометрических параметров получаемых в обезличенном виде от каждой компании отрасли через налогового регулятора.
Предложен подход к анализу отрасли, который не предусматривает отслеживания эконометрических показателей каждой компании, но рассматривает параметры всех компаний отрасли, как единого объекта.
Ежеквартальными эконометрическими параметрами для каждой компании отрасли являются доход, количество работников, налоги и сборы, уплачиваемые в бюджет, доход от продажи лицензионных прав на программное обеспечение.
Был использован ABC-метод анализа модифицированный до ABCD-метода (D — компании с нулевым вкладом в соответствующую отраслевую метрику) для различных отраслевых метрик. Были построены Парето-кривые для множества эконометрических параметров отрасли.
Для оценки степени монополизированности отрасли был рассчитан индекс Херфиндаля – Хиршмана (ИХХ) для наиболее чувствительных метрик отрасли. С использованием ИХХ было показано что пандемия COVID-19 не привела к существенным изменениям уровня монополизированности российской ИТ-отрасли.
В качестве наиболее наглядного подхода к отображению отрасли было предложено использовать диаграмму рассеяния в сочетании с присвоением компаниям отрасли цвета в соответствии с их позицией на Парето-кривой. Также продемонстрирован эффект влияния процедуры аккредитации путем отображения отрасли в формате диаграммы рассеяния c красно-черным отображением аккредитованных и неаккредитованных компаний, соответственно.
И заключительным результатом, отраженным в статье является предложение использования процедуры сквозной идентификации при организации цепочек поставок программного обеспечения с целью контроля структуры рынка программного обеспечения. Этот подход позволяет избежать множественного учета при продаже лицензий на программное обеспечение в рамках цепочек поставок.
Результаты работы могут быть положены в основу дальнейшего анализа ИТ-отрасли и перехода к агентному моделированию отрасли.
Approach to Estimating the Dynamics of the Industry Consolidation Level
Computer Research and Modeling, 2023, v. 15, no. 1, pp. 129-140In this article we propose a new approach to the analysis of econometric industry parameters for the industry consolidation level. The research is based on the simple industry automatic control model. The state of the industry is measured by quarterly obtained econometric parameters from each industry’s company provided by the tax control regulator. An approach to analysis of the industry, which does not provide for tracking the economy of each company, but explores the parameters of the set of all companies as a whole, is proposed. Quarterly obtained econometric parameters from each industry’s company are Income, Quantity of employers, Taxes, and Income from Software Licenses. The ABC analysis method was modified by ABCD analysis (D — companies with zero-level impact to industry metrics) and used to make the results obtained for different indicators comparable. Pareto charts were formed for the set of econometric indicators.
To estimate the industry monopolization, the Herfindahl – Hirschman index was calculated for the most sensitive companies metrics. Using the HHI approach, it was proved that COVID-19 does not lead to changes in the monopolization of the Russian IT industry.
As the most visually obvious approach to the industry visualization, scattering diagrams in combination with the Pareto graph colors were proposed. The affect of the accreditation procedure is clearly observed by scattering diagram in combination with red/black dots for accredited and nonaccredited companies respectively.
The last reported result is the proposal to use the Licenses End-to-End Product Identification as the market structure control instrument. It is the basis to avoid the multiple accounting of the licenses reselling within the chain of software distribution.
The results of research could be the basis for future IT industry analysis and simulation on the agent based approach.
-
Снижение частоты промахов в неинклюзивный кэш с инклюзивным справочником многоядерного процессора
Компьютерные исследования и моделирование, 2023, т. 15, № 3, с. 639-656Хотя эпоха экспоненциального роста производительности компьютерных микросхем закончилась, даже настольные процессоры общего назначения сегодня имеют 16 и больше ядер. Поскольку пропускная способность памяти DRAM растет не с такой скоростью, как вычислительная мощность ядер, разработчики процессоров должны искать пути уменьшения частоты обменов с памятью на одну инструкцию. Непосредственным путем к этому является снижение частоты промахов в кэш последнего уровня. Предполагая уже реализованной схему «неинклюзивный кэш с инклюзивным справочником» (NCID), три способа дальнейшего снижения частоты промахов были исследованы.
Первый способ — это достижение более равномерного использования банков и наборов кэша применением хэш-функций для интерливинга и индексирования. В экспериментах в тестах SPEC CPU2017 refrate, даже простейшие хэш-функции на основе XOR показали увеличение производительности на 3,2%, 9,1% и 8,2% в конфигурациях процессора с 16, 32 и 64 ядрами и банками общего кэша, сравнимое с результатами для более сложных функций на основе матриц, деления и CRC.
Вторая оптимизация нацелена на уменьшение дублирования на разных уровнях кэшей путем автоматического переключения на эксклюзивную схему, когда она выглядит оптимальной. Известная схема этого типа, FLEXclusion, была модифицирована для использования в NCID-кэшах и показала улучшение производительности в среднемна 3,8%, 5,4% и 7,9% для 16-, 32- и 64-ядерных конфигураций.
Третьей оптимизацией является увеличение фактической емкости кэша использованием компрессии. Частота сжатия недорогим и быстрыма лгоритмом B DI*-HL (Base-Delta-Immediate Modified, Half-Line), разработанным для NCID, была измерена, и соответствующее увеличение емкости кэша дало около 1% среднего повышения производительности.
Все три оптимизации могут сочетаться и продемонстрировали прирост производительности в 7,7%, 16% и 19% для конфигураций с 16, 32 и 64 ядрами и банками соответственно.
Ключевые слова: многоядерный процессор, подсистема памяти, распределенный общий кэш, NCID, хэш-функции на основе XOR, компрессия данных.
Reducing miss rate in a non-inclusive cache with inclusive directory of a chip multiprocessor
Computer Research and Modeling, 2023, v. 15, no. 3, pp. 639-656Although the era of exponential performance growth in computer chips has ended, processor core numbers have reached 16 or more even in general-purpose desktop CPUs. As DRAM throughput is unable to keep pace with this computing power growth, CPU designers need to find ways of lowering memory traffic per instruction. The straightforward way to do this is to reduce the miss rate of the last-level cache. Assuming “non-inclusive cache, inclusive directory” (NCID) scheme already implemented, three ways of reducing the cache miss rate further were studied.
The first is to achieve more uniform usage of cache banks and sets by employing hash-based interleaving and indexing. In the experiments in SPEC CPU2017 refrate tests, even the simplest XOR-based hash functions demonstrated a performance increase of 3.2%, 9.1%, and 8.2% for CPU configurations with 16, 32, and 64 cores and last-level cache banks, comparable to the results of more complex matrix-, division- and CRC-based functions.
The second optimisation is aimed at reducing replication at different cache levels by means of automatically switching to the exclusive scheme when it appears optimal. A known scheme of this type, FLEXclusion, was modified for use in NCID caches and showed an average performance gain of 3.8%, 5.4 %, and 7.9% for 16-, 32-, and 64-core configurations.
The third optimisation is to increase the effective cache capacity using compression. The compression rate of the inexpensive and fast BDI*-HL (Base-Delta-Immediate Modified, Half-Line) algorithm, designed for NCID, was measured, and the respective increase in cache capacity yielded roughly 1% of the average performance increase.
All three optimisations can be combined and demonstrated a performance gain of 7.7%, 16% and 19% for CPU configurations with 16, 32, and 64 cores and banks, respectively.
-
Суррогатная нейросетевая модель для восстановления поля течения в серийных расчетах стационарных турбулентных течений с разрешением пристенной области
Компьютерные исследования и моделирование, 2024, т. 16, № 5, с. 1195-1216При моделировании турбулентных течений в практических приложениях часто приходится проводить серии расчетов для тел близкой топологии. Например, тел, отличающихся формой обтекателя. Применение сверточных нейронных сетей позволяет сократить количество расчетов серии, восстановив часть из них по уже проведенным расчетам. В работе предлагается метод, позволяющий применить сверточную нейронную сеть независимо от способа построения вычислительной сетки. Для этого проводится переинтерполяция поля течения на равномерную сетку вместе с самим телом. Геометрия тела задается с помощью функции расстояния со знаком и маскирования. Восстановление поля течения на основании части расчетов для схожих геометрий проводится с помощью нейронной сети типа UNet с пространственным механизмом внимания. Разрешение пристенной области, являющееся критически важным условием при турбулентном моделировании, производится на основании уравнений, полученных в методе пристенной декомпозиции.
Демонстрация метода приводится для случая обтекания скругленной пластины турбулентным потоком воздуха с различным скруглением при фиксированных параметрах набегающего потока с числом Рейнольдса $Re = 10^5$ и числом Маха $M = 0,15$. Поскольку течения с такими параметрами набегающего потока можно считать несжимаемыми, исследуются непосредственно только компоненты скорости. Проводится сравнение полей течения, профилей скорости и трения на стенке, полученных суррогатной моделью и численно. Анализ проводится как на пластине, так и на скруглении. Результаты моделирования подтверждают перспективность предлагаемого подхода. В частности, было показано, что даже в случае использования модели на максимально допустимых границах ее применимости трение может быть получено с точностью до 90%. Также в работе проводится анализ построенной архитектуры нейронной сети. Полученная суррогатная модель сравнивается с альтернативными моделями, построенными на основании вариационного автоэнкодера или метода главных компонент с использованием радиальных базисных функций. На основании этого сравнения демонстрируются преимущества предложенного метода.
Ключевые слова: аэродинамика, турбулентность, пристенная декомпозиция, сверточная нейронная сеть, UNet, механизм внимания, функция расстояния со знаком.
A surrogate neural network model for resolving the flow field in serial calculations of steady turbulent flows with a resolution of the nearwall region
Computer Research and Modeling, 2024, v. 16, no. 5, pp. 1195-1216When modeling turbulent flows in practical applications, it is often necessary to carry out a series of calculations of bodies of similar topology. For example, bodies that differ in the shape of the fairing. The use of convolutional neural networks allows to reduce the number of calculations in a series, restoring some of them based on calculations already performed. The paper proposes a method that allows to apply a convolutional neural network regardless of the method of constructing a computational mesh. To do this, the flow field is reinterpolated to a uniform mesh along with the body itself. The geometry of the body is set using the signed distance function and masking. The restoration of the flow field based on part of the calculations for similar geometries is carried out using a neural network of the UNet type with a spatial attention mechanism. The resolution of the nearwall region, which is a critical condition for turbulent modeling, is based on the equations obtained in the nearwall domain decomposition method.
A demonstration of the method is given for the case of a flow around a rounded plate by a turbulent air flow with different rounding at fixed parameters of the incoming flow with the Reynolds number $Re = 10^5$ and the Mach number $M = 0.15$. Since flows with such parameters of the incoming flow can be considered incompressible, only the velocity components are studied directly. The flow fields, velocity and friction profiles obtained by the surrogate model and numerically are compared. The analysis is carried out both on the plate and on the rounding. The simulation results confirm the prospects of the proposed approach. In particular, it was shown that even if the model is used at the maximum permissible limits of its applicability, friction can be obtained with an accuracy of up to 90%. The work also analyzes the constructed architecture of the neural network. The obtained surrogate model is compared with alternative models based on a variational autoencoder or the principal component analysis using radial basis functions. Based on this comparison, the advantages of the proposed method are demonstrated.
-
Определение поправочных коэффициентов при количественной оценке костных патологических очагов методом гамма-эмиссионной томографии
Компьютерные исследования и моделирование, 2025, т. 17, № 4, с. 677-696При обследовании методом однофотонной эмиссионной компьютерной томографии (ОФЭКТ) пациентам с заболеваниями костной системы вводится радиофармпрепарат (РФП), который специфическим образом накапливается в патологических очагах. Количественные оценки накопления РФП в очагах важны для определения стадии заболевания, прогнозирования его течения и разработки персонализированных терапевтических стратегий. Исследования точности количественных оценок обычно проводятся на основе клинических испытаний in vitro с использованием стандартизированного вещественного фантома NEMA IEC с шестью сферами, имитирующими патологические очаги разных размеров. Однако возможности проведения таких многопараметрических экспериментальных измерений ограничены из-за высокойстоимости и лучевой нагрузки на исследователей. В данной работе развит альтернативный подход на основе имитационного компьютерного моделирования in silico с использованием цифрового двойника фантома NEMA IEC. Компьютерные эксперименты могут проводиться без ограничений с разными сценариями. По аналогии с клиническими испытаниями в численном моделировании оценивался коэффициент восстановления (RCmax), равный отношению максимального значения полученного решения в очаге к его точной величине. Условия моделирования были ориентированы на параметры клинических обследований методом ОФЭКТ/КТ с 99mTc пациентов с заболеваниями и поражениями костной системы. Впервые выполнены исследования зависимости RCmax от величины отношения «очаг/фон» и влияния постфильтрации решения. В численных экспериментах были получены краевые артефакты на изображениях очагов, аналогичные тем, которые наблюдались при измерениях на реальном фантоме NEMA IEC и в клинической практике при обследовании пациентов. Краевые артефакты приводят к нестабильности поведения решения в итерационном процессе и к ошибкам в оценке накопления РФП в очагах. Показано, что постфильтрация снижает влияние этих артефактов, обеспечивая стабильное решение. Однако при этом существенно занижаются оценки решения в небольших очагах, поэтому предложено учитывать полученные в данной работе поправочные коэффициенты при количественной оценке активности в очагах диаметром менее 20 мм.
Ключевые слова: количественная однофотонная эмиссионная компьютерная томография, математическое имитационное моделирование, коэффициент восстановления, краевые артефакты.
Determination of post-reconstruction correction factors for quantitative assessment of pathological bone lesions using gamma emission tomography
Computer Research and Modeling, 2025, v. 17, no. 4, pp. 677-696In single-photon emission computed tomography (SPECT), patients with bone disorders receive a radiopharmaceutical (RP) that accumulates selectively in pathological lesions. Accurate quantification of RP uptake plays a critical role in disease staging, prognosis, and the development of personalized treatment strategies. Traditionally, the accuracy of quantitative assessment is evaluated through in vitro clinical trials using the standardized physical NEMA IEC phantom, which contains six spheres simulating lesions of various sizes. However, such experiments are limited by high costs and radiation exposure to researchers. This study proposes an alternative in silico approach based on numerical simulation using a digital twin of the NEMA IEC phantom. The computational framework allows for extensive testing under varying conditions without physical constraints. Analogous to clinical protocols, we calculated the recovery coefficient (RCmax), defined as the ratio of the maximum activity in a lesion to its known true value. The simulation settings were tailored to clinical SPECT/CT protocols involving 99mTc for patients with bone-related diseases. For the first time, we systematically analyzed the impact of lesion-to-background ratios and post-reconstruction filtering on RCmax values. Numerical experiments revealed the presence of edge artifacts in reconstructed lesion images, consistent with those observed in both real NEMA IEC phantom studies and patient scans. These artifacts introduce instability into the iterative reconstruction process and lead to errors in activity quantification. Our results demonstrate that post-filtering helps suppress edge artifacts and stabilizes the solution. However, it also significantly underestimates activity in small lesions. To address this issue, we introduce post-reconstruction correction factors derived from our simulations to improve the accuracy of quantification in lesions smaller than 20 mm in diameter.
Журнал индексируется в Scopus
Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU
Журнал входит в систему Российского индекса научного цитирования.
Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science
Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"





