Все выпуски
- 2024 Том 16
- 2023 Том 15
- 2022 Том 14
- 2021 Том 13
- 2020 Том 12
- 2019 Том 11
- 2018 Том 10
- 2017 Том 9
- 2016 Том 8
- 2015 Том 7
- 2014 Том 6
- 2013 Том 5
- 2012 Том 4
- 2011 Том 3
- 2010 Том 2
- 2009 Том 1
-
Анализ траекторий броуновской и молекулярной динамики для выявления механизмов белок-белковых взаимодействий
Компьютерные исследования и моделирование, 2023, т. 15, № 3, с. 723-738В работе предложен набор достаточно простых алгоритмов, который может быть применен для анализа широкого круга белок-белковых взаимодействий. В настоящей работе мы совместно используем методы броуновской и молекулярной динамики для описания процесса образования комплекса белков пластоцианина и цитохрома f высших растений. В диффузионно-столкновительном комплексе выявлено два кластера структур, переход между которыми возможен с сохранением положения центра масс молекул и сопровождается лишь поворотом пластоцианина на 134 градуса. Первый и второй кластеры структур столкновительных комплексов отличаются тем, что в первом кластере с положительно заряженной областью вблизи малого домена цитохрома f контактирует только «нижняя» область пластоцианина, в то время как во втором кластере — обе отрицательно заряженные области. «Верхняя» отрицательно заряженная область пластоцианина в первом кластере оказывается в контакте с аминокислотным остатком лизина K122. При образовании финального комплекса происходит поворот молекулы пластоцианина на 69 градусов вокруг оси, проходящей через обе области электростатического контакта. При этом повороте происходит вытеснение воды из областей, находящихся вблизи кофакторов молекул и сформированных гидрофобными аминокислотными остатками. Это приводит к появлению гидрофобных контактов, уменьшению расстояния между кофакторами до расстояния менее 1,5 нм и дальнейшей стабилизации комплекса в положении, пригодном для передачи электрона. Такие характеристики, как матрицы контактов, оси поворота при переходе между состояниями и графики изменения количества контактов в процессе моделирования, позволяют определить ключевые аминокислотные остатки, участвующие в формировании комплекса и выявить физико-химические механизмы, лежащие в основе этого процесса.
Ключевые слова: броуновская динамика, белок-белковые взаимодействия, кластерный анализ, матрица контактов аминокислотных остатков, пластоцианин, цитохром f.
Analysis of Brownian and molecular dynamics trajectories of to reveal the mechanisms of protein-protein interactions
Computer Research and Modeling, 2023, v. 15, no. 3, pp. 723-738The paper proposes a set of fairly simple analysis algorithms that can be used to analyze a wide range of protein-protein interactions. In this work, we jointly use the methods of Brownian and molecular dynamics to describe the process of formation of a complex of plastocyanin and cytochrome f proteins in higher plants. In the diffusion-collision complex, two clusters of structures were revealed, the transition between which is possible with the preservation of the position of the center of mass of the molecules and is accompanied only by a rotation of plastocyanin by 134 degrees. The first and second clusters of structures of collisional complexes differ in that in the first cluster with a positively charged region near the small domain of cytochrome f, only the “lower” plastocyanin region contacts, while in the second cluster, both negatively charged regions. The “upper” negatively charged region of plastocyanin in the first cluster is in contact with the amino acid residue of lysine K122. When the final complex is formed, the plastocyanin molecule rotates by 69 degrees around an axis passing through both areas of electrostatic contact. With this rotation, water is displaced from the regions located near the cofactors of the molecules and formed by hydrophobic amino acid residues. This leads to the appearance of hydrophobic contacts, a decrease in the distance between the cofactors to a distance of less than 1.5 nm, and further stabilization of the complex in a position suitable for electron transfer. Characteristics such as contact matrices, rotation axes during the transition between states, and graphs of changes in the number of contacts during the modeling process make it possible to determine the key amino acid residues involved in the formation of the complex and to reveal the physicochemical mechanisms underlying this process.
-
Молекулярная динамика протофиламентов тубулина и влияние таксола на их изгибную деформацию
Компьютерные исследования и моделирование, 2024, т. 16, № 2, с. 503-512Несмотря на широкое распространение и применение препаратов химиотерапии рака, остаются невыясненными молекулярные механизмы действия многих из них. Известно, что некоторые из этих препаратов, например таксол, оказывают влияние на динамику сборки микротрубочек и останавливают процесс клеточного деления в профазе-прометафазе. В последнее время появились новые пространственные структуры микротрубочек и отдельных олигомеров тубулина, связанных с различными регуляторными белками и препаратами химиотерапии рака. Однако знание пространственной структуры само по себе не дает информации о механизме действия препаратов.
В работе был применен метод молекулярной динамики для исследования поведения связанных с таксолом олигомеров тубулина и использована разработанная нами ранее методика анализа конформационных изменений протофиламентов тубулина, основанная на вычислении модифицированных углов Эйлера. На новых структурах фрагментов микротрубочек было продемонстрировано, что протофиламенты тубулина изгибаются не в радиальном направлении, как предполагают многие исследователи, а под углом примерно 45◦ к радиальному направлению. Однако в присутствии таксола направление изгиба смещается ближе к радиальному направлению. Было выявлено отсутствие значимой разницы между средними значениями углов изгиба и скручивания на новых структурах тубулина при связывании с различными естественными регуляторными лигандами, гуанозинтрифосфатом и гуанозиндифосфатом. Было обнаружено, что угол изгиба внутри димера больше, чем угол междимерного изгиба во всех проанализированных траекториях. Это указывает на то, что основная доля энергии деформации запасается внутри димерных субъединиц тубулина, а не на междимерном интерфейсе. Анализ недавно опубликованных структур тубулина указал на то, что присутствие таксола в кармане бета-субъединицы тубулина аллостерически уменьшает жесткость олигомера тубулина на скручивание, что могло бы объяснить основной механизм воздействия таксола на динамику микротрубочек. Действительно, снижение крутильной жесткости дает возможность сохранить латеральные связи между протофиламентами, а значит, должно приводить к стабилизации микротрубочек, что и наблюдается в экспериментах. Результаты работы позволяют пролить свет на феномен динамической нестабильности микротрубочек и приблизиться к пониманию молекулярных механизмов клеточного деления.
Ключевые слова: тубулин, таксол, микротрубочки, динамическая нестабильность, углы Эйлера, молекулярное моделирование.
Molecular dynamics of tubulin protofilaments and the effect of taxol on their bending deformation
Computer Research and Modeling, 2024, v. 16, no. 2, pp. 503-512Despite the widespread use of cancer chemotherapy drugs, the molecular mechanisms of action of many of them remain unclear. Some of these drugs, such as taxol, are known to affect the dynamics of microtubule assembly and stop the process of cell division in prophase-prometaphase. Recently, new spatial structures of microtubules and individual tubulin oligomers have emerged associated with various regulatory proteins and cancer chemotherapy drugs. However, knowledge of the spatial structure in itself does not provide information about the mechanism of action of drugs.
In this work, we applied the molecular dynamics method to study the behavior of taxol-bound tubulin oligomers and used our previously developed method for analyzing the conformation of tubulin protofilaments, based on the calculation of modified Euler angles. Recent structures of microtubule fragments have demonstrated that tubulin protofilaments bend not in the radial direction, as many researchers assume, but at an angle of approximately 45◦ from the radial direction. However, in the presence of taxol, the bending direction shifts closer to the radial direction. There was no significant difference between the mean bending and torsion angles of the studied tubulin structures when bound to the various natural regulatory ligands, guanosine triphosphate and guanosine diphosphate. The intra-dimer bending angle was found to be greater than the interdimer bending angle in all analyzed trajectories. This indicates that the bulk of the deformation energy is stored within the dimeric tubulin subunits and not between them. Analysis of the structures of the latest generation of tubulins indicated that the presence of taxol in the tubulin beta subunit pocket allosterically reduces the torsional rigidity of the tubulin oligomer, which could explain the underlying mechanism of taxol’s effect on microtubule dynamics. Indeed, a decrease in torsional rigidity makes it possible to maintain lateral connections between protofilaments, and therefore should lead to the stabilization of microtubules, which is what is observed in experiments. The results of the work shed light on the phenomenon of dynamic instability of microtubules and allow to come closer to understanding the molecular mechanisms of cell division.
-
Расчет магнитных свойств наноструктурных пленок методом параллельного Монте-Карло
Компьютерные исследования и моделирование, 2013, т. 5, № 4, с. 693-703Изображения рельефа поверхности ультратонких магнитных пленок использовались для Монте-Карло моделирования в рамках ферромагнитной модели Изинга с целью исследования гистерезисных и термодинамических свойств наноматериалов. Для высокопроизводительных вычислений использовался параллельный сверхмасштабируемый алгоритм поиска равновесной конфигурации. Исследовано изменение распределения спинов на поверхности в процессе обращения намагниченности и динамика нанодоменной структуры тонких магнитных пленок под влиянием изменяющегося внешнего магнитного поля.
Ключевые слова: метод Монте-Карло, сверхмасштабируемый алгоритм, модель Изинга, моделирование PMOKE-изображения.
Calculation of magnetic properties of nanostructured films by means of the parallel Monte-Carlo
Computer Research and Modeling, 2013, v. 5, no. 4, pp. 693-703Просмотров за год: 4. Цитирований: 1 (РИНЦ).Images of surface topography of ultrathin magnetic films have been used for Monte Carlo simulations in the framework of the ferromagnetic Ising model to study the hysteresis and thermal properties of nanomaterials. For high performance calculations was used super-scalable parallel algorithm for the finding of the equilibrium configuration. The changing of a distribution of spins on the surface during the reversal of the magnetization and the dynamics of nanodomain structure of thin magnetic films under the influence of changing external magnetic field was investigated.
-
Сравнительный анализ статистических методов классификации научных публикаций в области медицины
Компьютерные исследования и моделирование, 2020, т. 12, № 4, с. 921-933В работе проведено сравнение различных методов машинной классификации научных текстов по тематическим разделам на примере публикаций в профильных медицинских журналах, выпускаемых издательством Springer. Исследовался корпус текстов по пяти разделам: фармакология/токсикология, кардиология, иммунология, неврология и онкология. Рассматривались как методы поверхностной классификации, основанные на анализе аннотаций и ключевых слов, так и методы классификации на основе обработки собственно текстов. Были применены методы байесовской классификации, опорных векторов и эталонных буквосочетаний. Показано, что наилучшую точность имеет метод классификации на основе создания библиотеки эталонов буквенных триграмм, отвечающих текстам определенной тематики, а семантические методы уступают ему по точности. Выяснилось, что применительно к рассматриваемому корпусу текстов байесовский метод дает ошибку порядка 20 %, метод опорных векторов имеет ошибку порядка 10 %, а метод близости распределения текста к трехбуквенному эталону тематики дает ошибку порядка 5 %, что позволяет ранжировать эти методы для использования искусственного интеллекта в задачах классификации текстов по отраслевым специальностям. Существенно, что при анализе аннотаций метод опорных векторов дает такую же точность, что и при анализе полных текстов, что важно для сокращения числа операций для больших корпусов текстов.
Comparative analysis of statistical methods of scientific publications classification in medicine
Computer Research and Modeling, 2020, v. 12, no. 4, pp. 921-933In this paper the various methods of machine classification of scientific texts by thematic sections on the example of publications in specialized medical journals published by Springer are compared. The corpus of texts was studied in five sections: pharmacology/toxicology, cardiology, immunology, neurology and oncology. We considered both classification methods based on the analysis of annotations and keywords, and classification methods based on the processing of actual texts. Methods of Bayesian classification, reference vectors, and reference letter combinations were applied. It is shown that the method of classification with the best accuracy is based on creating a library of standards of letter trigrams that correspond to texts of a certain subject. It is turned out that for this corpus the Bayesian method gives an error of about 20%, the support vector machine has error of order 10%, and the proximity of the distribution of three-letter text to the standard theme gives an error of about 5%, which allows to rank these methods to the use of artificial intelligence in the task of text classification by industry specialties. It is important that the support vector method provides the same accuracy when analyzing annotations as when analyzing full texts, which is important for reducing the number of operations for large text corpus.
-
Оценка качества кластеризации панельных данных с использованием методов Монте-Карло (на примере данных российской региональной экономики)
Компьютерные исследования и моделирование, 2020, т. 12, № 6, с. 1501-1513В работе рассматривается метод исследования панельных данных, основанный на использовании агломеративной иерархической кластеризации — группировки объектов на основании сходства и разли- чия их признаков в иерархию вложенных друг в друга кластеров. Применялись 2 альтернативных способа вычисления евклидовых расстояний между объектами — расстояния между усредненными по интервалу наблюдений значениями и расстояния с использованием данных за все рассматриваемые годы. Сравнивались 3 альтернативных метода вычисления расстояний между кластерами. В первом случае таким расстоянием считается расстояние между ближайшими элементами из двух кластеров, во втором — среднее по парам элементов, в третьем — расстояние между наиболее удаленными элементами. Исследована эффективность использования двух индексов качества кластеризации — индекса Данна и Силуэта для выбора оптимального числа кластеров и оценки статистической значимости полученных решений. Способ оценивания статистической достоверности кластерной структуры заключался в сравнении качества кластеризации, на реальной выборке с качеством кластеризаций на искусственно сгенерированных выборках панельных данных с теми же самыми числом объектов, признаков и длиной рядов. Генерация производилась из фиксированного вероятностного распределения. Использовались способы симуляции, имитирующие гауссов белый шум и случайное блуждание. Расчеты с индексом Силуэт показали, что случайное блуждание характеризуется не только ложной регрессией, но и ложной кластеризацией. Кластеризация принималась достоверной для данного числа выделенных кластеров, если значение индекса на реальной выборке оказывалось больше значения 95%-ного квантиля для искусственных данных. В качестве выборки реальных данных использован набор временных рядов показателей, характеризующих производство в российских регионах. Для этих данных только Силуэт показывает достоверную кластеризацию на уровне $p < 0.05$. Расчеты также показали, что значения индексов для реальных данных в целом ближе к значениям для случайных блужданий, чем для белого шума, но имеют значимые отличия и от тех, и от других. Визуально можно выделить скопления близко расположенных друг от друга в трехмерном признаковом пространстве точек, выделяемые также в качестве кластеров применяемым алгоритмом иерархической кластеризации.
Assessing the validity of clustering of panel data by Monte Carlo methods (using as example the data of the Russian regional economy)
Computer Research and Modeling, 2020, v. 12, no. 6, pp. 1501-1513The paper considers a method for studying panel data based on the use of agglomerative hierarchical clustering — grouping objects based on the similarities and differences in their features into a hierarchy of clusters nested into each other. We used 2 alternative methods for calculating Euclidean distances between objects — the distance between the values averaged over observation interval, and the distance using data for all considered years. Three alternative methods for calculating the distances between clusters were compared. In the first case, the distance between the nearest elements from two clusters is considered to be distance between these clusters, in the second — the average over pairs of elements, in the third — the distance between the most distant elements. The efficiency of using two clustering quality indices, the Dunn and Silhouette index, was studied to select the optimal number of clusters and evaluate the statistical significance of the obtained solutions. The method of assessing statistical reliability of cluster structure consisted in comparing the quality of clustering on a real sample with the quality of clustering on artificially generated samples of panel data with the same number of objects, features and lengths of time series. Generation was made from a fixed probability distribution. At the same time, simulation methods imitating Gaussian white noise and random walk were used. Calculations with the Silhouette index showed that a random walk is characterized not only by spurious regression, but also by “spurious clustering”. Clustering was considered reliable for a given number of selected clusters if the index value on the real sample turned out to be greater than the value of the 95% quantile for artificial data. A set of time series of indicators characterizing production in the regions of the Russian Federation was used as a sample of real data. For these data only Silhouette shows reliable clustering at the level p < 0.05. Calculations also showed that index values for real data are generally closer to values for random walks than for white noise, but it have significant differences from both. Since three-dimensional feature space is used, the quality of clustering was also evaluated visually. Visually, one can distinguish clusters of points located close to each other, also distinguished as clusters by the applied hierarchical clustering algorithm.
-
Исследование динамики структуры олигополистических рынков при нерыночных противодействиях сторон
Компьютерные исследования и моделирование, 2021, т. 13, № 1, с. 219-233В статье исследуется влияние нерыночных действий участников олигополистических рынков на рыночную структуру. Анализируются следующие действия одного из участников рынка, направленные на повышение его рыночной доли: 1) манипуляция ценами; 2) блокировка инвестиций более сильных олигополистов; 3) уничтожение производственной продукции и мощностей конкурентов. Для моделирования стратегий олигополистов используются линейные динамические игры с квадратичным критерием. Целесообразность их использования обусловлена возможностью как адекватного описания эволюции рынков, так и реализации двух взаимно дополняющих подходов к определению стратегий олигополистов: 1) подхода, основанного на представлении моделей в пространстве состояний и решении обобщенных уравнений Риккати; 2) подхода, основанного на применении методов операционного исчисления (в частотной области) и обладающего необходимой для экономического анализа наглядностью.
В статье показывается эквивалентность подходов к решению задачи с максиминными критериями олигополистов в пространстве состояний и в частотной области. Рассматриваются результаты расчетов применительно к дуополии, с показателями, близкими к одной из дуополий в микроэлектронной промышленности мира. Второй дуополист является менее эффективным с позиций затрат, хотя и менее инерционным. Его цель состоит в повышении своей рыночной доли путем реализации перечисленных выше нерыночных методов.
На основе расчетов по игровой модели построены зависимости, характеризующие связь относи- тельного увеличения объемов производства за 25-летний период слабого $dy_2$ и сильного $dy_1$ дуополистов при манипуляции ценами. Показано, что увеличение цены при принятой линейной функции спроса приводит к весьма незначительному росту производства сильного дуополиста, но вместе с тем — к существенному росту этого показателя у слабого.
В то же время блокировка инвестиций, а также уничтожение продукции сильного дуополиста приводят к росту объемов производства товарной продукции у слабого дуополиста за счет снижения этого показателя у сильного, причем эластичность $\frac{y_2}{dy_1}$ превышает по модулю 1.
Ключевые слова: кибератаки, рыночная структура, нерыночные противодействия, олигополистические рынки, динамические игры.
Study of the dynamics of the structure of oligopolistic markets with non-market opposition parties
Computer Research and Modeling, 2021, v. 13, no. 1, pp. 219-233The article examines the impact of non-market actions of participants in oligopolistic markets on the market structure. The following actions of one of the market participants aimed at increasing its market share are analyzed: 1) price manipulation; 2) blocking investments of stronger oligopolists; 3) destruction of produced products and capacities of competitors. Linear dynamic games with a quadratic criterion are used to model the strategies of oligopolists. The expediency of their use is due to the possibility of both an adequate description of the evolution of markets and the implementation of two mutually complementary approaches to determining the strategies of oligopolists: 1) based on the representation of models in the state space and the solution of generalized Riccati equations; 2) based on the application of operational calculus methods (in the frequency domain) which owns the visibility necessary for economic analysis.
The article shows the equivalence of approaches to solving the problem with maximin criteria of oligopolists in the state space and in the frequency domain. The results of calculations are considered in relation to a duopoly, with indicators close to one of the duopolies in the microelectronic industry of the world. The second duopolist is less effective from the standpoint of costs, though more mobile. Its goal is to increase its market share by implementing the non-market methods listed above.
Calculations carried out with help of the game model, made it possible to construct dependencies that characterize the relationship between the relative increase in production volumes over a 25-year period of weak and strong duopolists under price manipulation. Constructed dependencies show that an increase in the price for the accepted linear demand function leads to a very small increase in the production of a strong duopolist, but, simultaneously, to a significant increase in this indicator for a weak one.
Calculations carried out with use of the other variants of the model, show that blocking investments, as well as destroying the products of a strong duopolist, leads to more significant increase in the production of marketable products for a weak duopolist than to a decrease in this indicator for a strong one.
-
Субградиентные методы для задач негладкой оптимизации с некоторой релаксацией условия острого минимума
Компьютерные исследования и моделирование, 2022, т. 14, № 2, с. 473-495Задачи негладкой оптимизации нередко возникают во многих приложениях. Вопросы разработки эффективных вычислительных процедур для негладких задач в пространствах больших размерностей весьма актуальны. В таких случаях разумно применятьмет оды первого порядка (субградиентные методы), однако в достаточно общих ситуациях они приводят к невысоким скоростным гарантиям. Одним из подходов к этой проблеме может являться выделение подкласса негладких задач, допускающих относительно оптимистичные результаты о скорости сходимости в пространствах больших размерностей. К примеру, одним из вариантов дополнительных предположений может послужитьуслови е острого минимума, предложенное в конце 1960-х годов Б. Т. Поляком. В случае доступности информации о минимальном значении функции для липшицевых задач с острым минимумом известен субградиентный метод с шагом Б. Т. Поляка, который гарантирует линейную скорость сходимости по аргументу. Такой подход позволил покрыть ряд важных прикладных задач (например, задача проектирования точки на выпуклый компакт или задача отыскания общей точки системы выпуклых множеств). Однако как условие доступности минимального значения функции, так и само условие острого минимума выглядят довольно ограничительными. В этой связи в настоящей работе предлагается обобщенное условие острого минимума, аналогичное известному понятию неточного оракула. Предложенный подход позволяет расширить класс применимости субградиентных методов с шагом Б. Т. Поляка на ситуации неточной информации о значении минимума, а также неизвестной константы Липшица целевой функции. Более того, использование в теоретической оценке качества выдаваемого методом решения локальных аналогов глобальных характеристик целевой функции позволяет применять результаты такого типа и к более широким классам задач. Показана возможностьпр именения предложенного подхода к сильно выпуклым негладким задачам и выполнено экспериментальное сравнение с известным оптимальным субградиентным методом на таком классе задач. Более того, получены результаты о применимости предложенной методики для некоторых типов задач с релаксациями выпуклости: недавно предложенное понятие слабой $\beta$-квазивыпуклости и обычной квазивыпуклости. Исследовано обобщение описанной методики на ситуацию с предположением о доступности на итерациях $\delta$-субградиента целевой функции вместо обычного субградиента. Для одного из рассмотренных методов найдены условия, при которых на практике можно отказаться от проектирования итеративной последовательности на допустимое множество поставленной задачи.
Ключевые слова: субградиентный метод, острый минимум, квазивыпуклая функция, слабо $\beta$-квазивыпуклая функция, липшицева функция, $\delta$-субградиент.
Subgradient methods for non-smooth optimization problems with some relaxation of sharp minimum
Computer Research and Modeling, 2022, v. 14, no. 2, pp. 473-495Non-smooth optimization often arises in many applied problems. The issues of developing efficient computational procedures for such problems in high-dimensional spaces are very topical. First-order methods (subgradient methods) are well applicable here, but in fairly general situations they lead to low speed guarantees for large-scale problems. One of the approaches to this type of problem can be to identify a subclass of non-smooth problems that allow relatively optimistic results on the rate of convergence. For example, one of the options for additional assumptions can be the condition of a sharp minimum, proposed in the late 1960s by B. T. Polyak. In the case of the availability of information about the minimal value of the function for Lipschitz-continuous problems with a sharp minimum, it turned out to be possible to propose a subgradient method with a Polyak step-size, which guarantees a linear rate of convergence in the argument. This approach made it possible to cover a number of important applied problems (for example, the problem of projecting onto a convex compact set). However, both the condition of the availability of the minimal value of the function and the condition of a sharp minimum itself look rather restrictive. In this regard, in this paper, we propose a generalized condition for a sharp minimum, somewhat similar to the inexact oracle proposed recently by Devolder – Glineur – Nesterov. The proposed approach makes it possible to extend the class of applicability of subgradient methods with the Polyak step-size, to the situation of inexact information about the value of the minimum, as well as the unknown Lipschitz constant of the objective function. Moreover, the use of local analogs of the global characteristics of the objective function makes it possible to apply the results of this type to wider classes of problems. We show the possibility of applying the proposed approach to strongly convex nonsmooth problems, also, we make an experimental comparison with the known optimal subgradient method for such a class of problems. Moreover, there were obtained some results connected to the applicability of the proposed technique to some types of problems with convexity relaxations: the recently proposed notion of weak $\beta$-quasi-convexity and ordinary quasiconvexity. Also in the paper, we study a generalization of the described technique to the situation with the assumption that the $\delta$-subgradient of the objective function is available instead of the usual subgradient. For one of the considered methods, conditions are found under which, in practice, it is possible to escape the projection of the considered iterative sequence onto the feasible set of the problem.
-
Повышение порядка точности сеточно-характеристического метода для задач двумерной линейной упругости с помощью схем операторного расщепления
Компьютерные исследования и моделирование, 2022, т. 14, № 4, с. 899-910Сеточно-характеристический метод успешно применяется для решения различных гиперболических систем уравнений в частных производных (например, уравнения переноса, акустики, линейной упругости). Он позволяет корректно строить алгоритмы на контактных границах и границах области интегрирования, в определенной степени учитывать физику задачи (распространение разрывов вдоль характеристических поверхностей), обладает важнымдля рассматриваемых задач свойством монотонности. В случае двумерных и трехмерных задач используется процедура расщепления по пространственным направлениям, позволяющая решить исходную систему путем последовательного решения нескольких одномерных систем. На настоящий момент во множестве работ используются схемы до третьего порядка точности при решении одномерных задач и простейшие схемы расщепления, которые в общем случае не позволяют получить порядок точности по времени выше второго. Значительное развитие получило направление операторного расщепления, доказана возможность повышения порядка сходимости многомерных схем. Его особенностью является необходимость выполнения шага в обратном направлении по времени, что порождает сложности, например, для параболических задач.
В настоящей работе схемы расщепления 3-го и 4-го порядка были применены непосредственно к решению двумерной гиперболической системы уравнений в частных производных линейной теории упругости. Это позволило повысить итоговый порядок сходимости расчетного алгоритма. В работе эмпирически оценена сходимость по нормам $L_1$ и $L_\infty$ с использованиемана литических решений определяющей системы достаточной степени гладкости. Для получения объективных результатов рассмотрены случаи продольных и поперечных плоских волн, распространяющихся как вдоль диагонали расчетной ячейки, так и не вдоль нее. Проведенные численные эксперименты подтверждают повышение точности метода и демонстрируют теоретически ожидаемый порядок сходимости. При этом увеличивается в 3 и в 4 раза время моделирования (для схем 3-го и 4-го порядка соответственно), но не возрастает потребление оперативной памяти. Предложенное усовершенствование вычислительного алгоритма сохраняет простоту его параллельной реализации на основе пространственной декомпозиции расчетной сетки.
Ключевые слова: компьютерное моделирование, численные методы, гиперболические системы, сеточно-характеристический численный метод, операторное расщепление, порядок сходимости.
Raising convergence order of grid-characteristic schemes for 2D linear elasticity problems using operator splitting
Computer Research and Modeling, 2022, v. 14, no. 4, pp. 899-910The grid-characteristic method is successfully used for solving hyperbolic systems of partial differential equations (for example, transport / acoustic / elastic equations). It allows to construct correctly algorithms on contact boundaries and boundaries of the integration domain, to a certain extent to take into account the physics of the problem (propagation of discontinuities along characteristic curves), and has the property of monotonicity, which is important for considered problems. In the cases of two-dimensional and three-dimensional problems the method makes use of a coordinate splitting technique, which enables us to solve the original equations by solving several one-dimensional ones consecutively. It is common to use up to 3-rd order one-dimensional schemes with simple splitting techniques which do not allow for the convergence order to be higher than two (with respect to time). Significant achievements in the operator splitting theory were done, the existence of higher-order schemes was proved. Its peculiarity is the need to perform a step in the opposite direction in time, which gives rise to difficulties, for example, for parabolic problems.
In this work coordinate splitting of the 3-rd and 4-th order were used for the two-dimensional hyperbolic problem of the linear elasticity. This made it possible to increase the final convergence order of the computational algorithm. The paper empirically estimates the convergence in L1 and L∞ norms using analytical solutions of the system with the sufficient degree of smoothness. To obtain objective results, we considered the cases of longitudinal and transverse plane waves propagating both along the diagonal of the computational cell and not along it. Numerical experiments demonstrated the improved accuracy and convergence order of constructed schemes. These improvements are achieved with the cost of three- or fourfold increase of the computational time (for the 3-rd and 4-th order respectively) and no additional memory requirements. The proposed improvement of the computational algorithm preserves the simplicity of its parallel implementation based on the spatial decomposition of the computational grid.
-
Предсказание производительности избранных типов циклов над одномерными массивами посредством анализа эмбеддингов промежуточных представлений
Компьютерные исследования и моделирование, 2023, т. 15, № 1, с. 211-224Предложен метод отображения промежуточных представлений C-, C++-программ в пространство векторов (эмбеддингов) для оценки производительности программ на этапе компиляции, без необходимости исполнения. Использование эмбеддингов для данной цели позволяет не проводить сравнение графов исследуемых программ непосредственно, что вычислительно упрощает задачу сравнения программ. Метод основан на серии трансформаций исходного промежуточного представления (IR), таких как: инструментирование — добавление фиктивных инструкций в оптимизационном проходе компилятора в зависимости от разности смещений в текущей инструкции обращения к памяти относительно предыдущей, преобразование IR в многомерный вектор с помощью технологии IR2Vec с понижением размерности по алгоритму t-SNE (стохастическое вложение соседей с t-распределением). В качестве метрики производительности предлагается доля кэш-промахов 1-го уровня (D1 cache misses). Приводится эвристический критерий отличия программ с большей долей кэш-промахов от программ с меньшей долей по их образам. Также описан разработанный в ходе работы проход компилятора, генерирующий и добавляющий фиктивные инструкции IR согласно используемой модели памяти. Приведено описание разработанного программного комплекса, реализующего предложенный способ оценивания на базе компиляторной инфраструктуры LLVM. Проведен ряд вычислительных экспериментов на синтетических тестах из наборов программ с идентичными потоками управления, но различным порядком обращений к одномерному массиву, показано, что коэффициент корреляции между метрикой производительности и расстоянием до эмбеддинга худшей программы в наборе отрицателен вне зависимости от инициализации t-SNE, что позволяет сделать заключение о достоверности эвристического критерия. Также в статье рассмотрен способ генерации тестов. По результатам экспериментов, вариативность значений метрики производительности на исследуемых множествах предложена как метрика для улучшения генератора тестов.
Ключевые слова: математическое моделирование, компиляторы, промежуточные представления программ, эмбеддинги, анализ производительности, статический анализ.
Performance prediction for chosen types of loops over one-dimensional arrays with embedding-driven intermediate representations analysis
Computer Research and Modeling, 2023, v. 15, no. 1, pp. 211-224The method for mapping of intermediate representations (IR) set of C, C++ programs to vector embedding space is considered to create an empirical estimation framework for static performance prediction using LLVM compiler infrastructure. The usage of embeddings makes programs easier to compare due to avoiding Control Flow Graphs (CFG) and Data Flow Graphs (DFG) direct comparison. This method is based on transformation series of the initial IR such as: instrumentation — injection of artificial instructions in an instrumentation compiler’s pass depending on load offset delta in the current instruction compared to the previous one, mapping of instrumented IR into multidimensional vector with IR2Vec and dimension reduction with t-SNE (t-distributed stochastic neighbor embedding) method. The D1 cache miss ratio measured with perf stat tool is considered as performance metric. A heuristic criterion of programs having more or less cache miss ratio is given. This criterion is based on embeddings of programs in 2D-space. The instrumentation compiler’s pass developed in this work is described: how it generates and injects artificial instructions into IR within the used memory model. The software pipeline that implements the performance estimation based on LLVM compiler infrastructure is given. Computational experiments are performed on synthetic tests which are the sets of programs with the same CFGs but with different sequences of offsets used when accessing the one-dimensional array of a given size. The correlation coefficient between performance metric and distance to the worst program’s embedding is measured and proved to be negative regardless of t-SNE initialization. This fact proves the heuristic criterion to be true. The process of such synthetic tests generation is also considered. Moreover, the variety of performance metric in programs set in such a test is proposed as a metric to be improved with exploration of more tests generators.
-
Редуцированная математическая модель свертывания крови с учетом переключения активности тромбина как основа оценки влияния гемодинамических эффектов и ее реализация в пакете FlowVision
Компьютерные исследования и моделирование, 2023, т. 15, № 4, с. 1039-1067Рассматривается возможность численного 3D-моделирования образования тромбов.
Известные детальные математические модели формирования тромбов включают в себя большое число уравнений. Для совмещения таких подробных математических моделей с гидродинамическими кодами для моделирования роста тромбов в кровотоке необходимы значительные вычислительные ресурсы. Разумной альтернативой представляется использование редуцированных математических моделей. В настоящей работе описаны две математические модели, основанные на редуцированной математической модели производства тромбина.
Первая модель описывает рост тромбоцитарного тромба в крупном сосуде (артерии). Течения в артериях существенно нестационарные, для артерий характерны пульсовые волны. Скорость течения крови в них велика по сравнению с венозным деревом. Редуцированная модель производства тромбина и тромбообразования в артериях относительно проста. Показано, что процессы производства тромбина хорошо описываются приближением нулевого порядка.
Для вен характерны более низкие скорости, меньшие градиенты и, как следствие, меньшие значения напряжений сдвига. Для моделирования производства тромбина в венах необходимо решать более сложную систему уравнений, учитывающую все нелинейные слагаемые в правых частях.
Моделирование проводится в индустриальном программном комплексе (ПК) FlowVision.
Проведенные тестовые расчеты показали адекватность редуцированных моделей производства тромбина и тромбообразования. В частности, расчеты демонстрируют формирование зоны возвратного течения за тромбом. За счет формирования такой зоны происходит медленный рост тромба в направлении вниз по потоку. В наветренной части тромба концентрация активных тромбоцитов мала, соответственно, рост тромба в направлении вверх по потоку незначителен.
При учете изменения течения в процессе сердечного цикла рост тромба происходит гораздо медленнее, чем при задании осредненных (по сердечному циклу) условий. Тромбин и активированные тромбоциты, наработанные во время диастолы, быстро уносятся потоком крови во время систолы. Заметный эффект оказывает учет неньютоновской реологии крови.
Ключевые слова: гемодинамика, тромб, тромбин, тромбоцит, фибрин, артерия, вена, численное моделирование, вычислительная гидродинамика (ВГД), уравнения Навье – Стокса, уравнения «реакция – диффузия – конвекция», неньютоновская жидкость, метод конечных объемов.
Reduced mathematical model of blood coagulation taking into account thrombin activity switching as a basis for estimation of hemodynamic effects and its implementation in FlowVision package
Computer Research and Modeling, 2023, v. 15, no. 4, pp. 1039-1067The possibility of numerical 3D simulation of thrombi formation is considered.
The developed up to now detailed mathematical models describing formation of thrombi and clots include a great number of equations. Being implemented in a CFD code, the detailed mathematical models require essential computer resources for simulation of the thrombi growth in a blood flow. A reasonable alternative way is using reduced mathematical models. Two models based on the reduced mathematical model for the thrombin generation are described in the given paper.
The first model describes growth of a thrombus in a great vessel (artery). The artery flows are essentially unsteady. They are characterized by pulse waves. The blood velocity here is high compared to that in the vein tree. The reduced model for the thrombin generation and the thrombus growth in an artery is relatively simple. The processes accompanying the thrombin generation in arteries are well described by the zero-order approximation.
A vein flow is characterized lower velocity value, lower gradients, and lower shear stresses. In order to simulate the thrombin generation in veins, a more complex system of equations has to be solved. The model must allow for all the non-linear terms in the right-hand sides of the equations.
The simulation is carried out in the industrial software FlowVision.
The performed numerical investigations have shown the suitability of the reduced models for simulation of thrombin generation and thrombus growth. The calculations demonstrate formation of the recirculation zone behind a thrombus. The concentration of thrombin and the mass fraction of activated platelets are maximum here. Formation of such a zone causes slow growth of the thrombus downstream. At the upwind part of the thrombus, the concentration of activated platelets is low, and the upstream thrombus growth is negligible.
When the blood flow variation during a hart cycle is taken into account, the thrombus growth proceeds substantially slower compared to the results obtained under the assumption of constant (averaged over a hard cycle) conditions. Thrombin and activated platelets produced during diastole are quickly carried away by the blood flow during systole. Account of non-Newtonian rheology of blood noticeably affects the results.
Журнал индексируется в Scopus
Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU
Журнал входит в систему Российского индекса научного цитирования.
Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science
Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"