Текущий выпуск Номер 1, 2025 Том 17

Все выпуски

Результаты поиска по 'matrix':
Найдено статей: 69
  1. В статье приведен пример конечно-элементного моделирования структурного элемента гибких тканых композитов. Армирующей тканью является полотняное переплетение нитей из трощеного жгута. Нити представляются упругим материалом. Матрицей рассматриваемого материала является мягкий полимер с возможностью возникновения необратимых деформаций. Учтена возможность возникновения повреждений в структуре материала при высоких нагрузках. Построена полная диаграмма деформирования при одноосном растяжении. Достоверность модели подтверждается проведенными натурными экспериментами.

    Lyubimov A.K., Kozhanov D.A.
    Modeling the structural element of flexible woven composites under static tension using the method of finite element in ANSYS
    Computer Research and Modeling, 2016, v. 8, no. 1, pp. 113-120

    The article gives the example of finite-element modeling of the structural element is a flexible woven composites. The reinforcing cloth is a plain weave of threads of assembled harness. Threads are represented by elastic material. The matrix of the material is a soft polymer with the possibility of irreversible deformations. Taken into account the possibility of the occurrence of damage in the structure of the material under high loads. Built detailed diagram of deformation under uniaxial tension. The accuracy of the model is conrmed by in situ experiments.

    Просмотров за год: 1. Цитирований: 7 (РИНЦ).
  2. Любушин А.А., Родионов Е.А.
    Анализ прогностических свойств тремора земной поверхности с помощью разложения Хуанга
    Компьютерные исследования и моделирование, 2024, т. 16, № 4, с. 939-958

    Предлагается метод анализа тремора земной поверхности, измеряемого средствами космической геодезии с целью выделения прогностических эффектов активизации сейсмичности. Метод иллюстрируется на примере совместного анализа совокупности синхронных временных рядов ежесуточных вертикальных смещений земной поверхности на Японских островах для интервала времени 2009–2023 гг. Анализ основан на разбиении исходных данных (1047 временных рядов) на блоки (кластеры станций) и последовательном применении метода главных компонент. Разбиение сети станций на кластеры производится методом k-средних из критерия максимума псевдо-статистики. Для Японии оптимальное число кластеров было выбрано равным 15. К временным рядам главных компонент от блоков станций применяется метод разложения Хуанга на последовательность независимых эмпирических мод колебаний (Empirical Mode Decomposition, EMD). Для обеспечения устойчивости оценок волновых форм EMD-разложения производилось усреднение 1000 независимых аддитивных реализаций белого шума ограниченной амплитуды. С помощью разложения Холецкого ковариационной матрицы волновых форм первых трех EMD-компонент в скользящем временном окне определены индикаторы аномального поведения тремора. Путем вычисления корреляционной функции между средними индикаторами аномального поведения и выде- лившейся сейсмической энергии в окрестности Японских островов установлено, что всплески меры ано- мального поведения тремора предшествуют выбросам сейсмической энергии. Целью статьи является про- яснение распространенных гипотез о том, что движения земной коры, регистрируемые средствами космической геодезии, могут содержать прогностическую информацию. То, что смещения, регистрируемые геодезическими методами, реагируют на последствия землетрясений, широко известно и многократно демонстрировалось. Но выделение геодезических эффектов, предвещающих сейсмические события, является значительно более сложной задачей. В нашей статье мы предлагаем один из методов обнаружения прогностических эффектов в данных космической геодезии.

    Lyubushin A.A., Rodionov E.A.
    Analysis of predictive properties of ground tremor using Huang decomposition
    Computer Research and Modeling, 2024, v. 16, no. 4, pp. 939-958

    A method is proposed for analyzing the tremor of the earth’s surface, measured by means of space geodesy, in order to highlight the prognostic effects of seismicity activation. The method is illustrated by the example of a joint analysis of a set of synchronous time series of daily vertical displacements of the earth’s surface on the Japanese Islands for the time interval 2009–2023. The analysis is based on dividing the source data (1047 time series) into blocks (clusters of stations) and sequentially applying the principal component method. The station network is divided into clusters using the K-means method from the maximum pseudo-F-statistics criterion, and for Japan the optimal number of clusters was chosen to be 15. The Huang decomposition method into a sequence of independent empirical oscillation modes (EMD — Empirical Mode Decomposition) is applied to the time series of principal components from station blocks. To provide the stability of estimates of the waveforms of the EMD decomposition, averaging of 1000 independent additive realizations of white noise of limited amplitude was performed. Using the Cholesky decomposition of the covariance matrix of the waveforms of the first three EMD components in a sliding time window, indicators of abnormal tremor behavior were determined. By calculating the correlation function between the average indicators of anomalous behavior and the released seismic energy in the vicinity of the Japanese Islands, it was established that bursts in the measure of anomalous tremor behavior precede emissions of seismic energy. The purpose of the article is to clarify common hypotheses that movements of the earth’s crust recorded by space geodesy may contain predictive information. That displacements recorded by geodetic methods respond to the effects of earthquakes is widely known and has been demonstrated many times. But isolating geodetic effects that predict seismic events is much more challenging. In our paper, we propose one method for detecting predictive effects in space geodesy data.

  3. Котлярова Е.В., Северилов П.А., Ивченков Я.П., Мокров П.В., Чеканов М.О., Гасникова Е.В., Шароватова Ю.И.
    Ускорение работы двухстадийной модели равновесного распределения потоков по сети
    Компьютерные исследования и моделирование, 2022, т. 14, № 2, с. 343-355

    В работе приведены возможные улучшения двухстадийной модели равновесного распределения транспортных потоков, повышающие качество детализации моделирования и скорость вычисления алгоритмов. Модель состоит из двух блоков, первый блок — модель расчета матрицы корреспонденций, второй блок — модель равновесного распределения транспортных потоков по путям. Равновесием в двухстадийной модели транспортных потоков называют неподвижную точку цепочки из этих двух моделей. Более подробно теория и эксперименты по данной модели были описаны в предыдущих работах авторов. В этой статье в первую очередь рассмотрена возможность сокращения вычислительного времени алгоритма расчета кратчайших путей (в модели стабильной динамики, равновесно распределяющей потоки). В исходном варианте эта задача была выполнена с помощью алгоритма Дийкстры, но, так как после каждой итерации блока распределения транспортных потоков, время, требующееся для прохода по ребру, изменяется не на всех ребрах (и если изменяется, то очень незначительно), во многом этот алгоритм был избыточен. Поэтому были проведены эксперименты с более новым методом, учитывающим подобные особенности, и приведен краткий обзор других ускоряющих подходов для будущих исследований. Эксперименты показали, что в некоторых случаях использование выбранного T-SWSF-алгоритма действительно сокращает вычислительное время. Во вторую очередь в блоке восстановления матрицы корреспонденций алгоритм Синхорна был заменен на алгоритм ускоренного Синхорна (или AAM-алгоритм), что, к сожалению, не показало ожидаемых результатов, расчетное время не изменилось. Инак онец, в третьем и финальном разделе приведена визуализация результатов экспериментов по добавлению платных дорог в двухстадийную модель, что помогло сократить количество перегруженных ребер в сети. Также во введении кратко описана мотивация данных исследований, приведено описание работы двухстадийной модели, а также на маленьком примере с двумя городами разобрано, как с ее помощью выполняется поиск равновесия.

    Kotliarova E.V., Severilov P.A., Ivchenkov Y.P., Mokrov P.V., Chekanov M.O., Gasnikova E.V., Sharovatova Y.I.
    Speeding up the two-stage simultaneous traffic assignment model
    Computer Research and Modeling, 2022, v. 14, no. 2, pp. 343-355

    This article describes possible improvements for the simultaneous multi-stage transport model code for speeding up computations and improving the model detailing. The model consists of two blocks, where the first block is intended to calculate the correspondence matrix, and the second block computes the equilibrium distribution of traffic flows along the routes. The first block uses a matrix of transport costs that calculates a matrix of correspondences. It describes the costs (time in our case) of travel from one area to another. The second block presents how exactly the drivers (agents) are distributed along the possible paths. So, knowing the distribution of the flows along the paths, it is possible to calculate the cost matrix. Equilibrium in a two-stage traffic flow model is a fixed point of a sequence of the two described models. Thus, in this paper we report an attempt to influence the calculation speed of Dijkstra’s algorithm part of the model. It is used to calculate the shortest path from one point to another, which should be re-calculated after each iteration of the flow distribution part. We also study and implement the road pricing in the model code, as well as we replace the Sinkhorn algorithm in the calculation of the correspondence matrix part with its faster implementation. In the beginning of the paper, we provide a short theoretical overview of the transport modelling motivation; we discuss current approaches to the modelling and provide an example for demonstration of how the whole cycle of multi-stage transport modelling works.

  4. Скачков Д.А., Гладышев С.И., Райгородский А.М.
    Экспериментальное сравнение алгоритмов поиска вектора PageRank
    Компьютерные исследования и моделирование, 2023, т. 15, № 2, с. 369-379

    Задача поиска PageRank вектора представляет большой научный и практический интерес ввиду своей применимости к работе современных поисковых систем. Несмотря на то, что данная задача сводится к поиску собственного вектора стохастической матрицы $P$, потребность в новых алгоритмах для ее решения обусловлена большими размерами входных данных. Для достижения не более чем линейного времени работы применяются различные рандомизированные методы, возвращающие ожидаемый ответ лишь с некоторой достаточно близкой к единице вероятностью. Нами рассматриваются два таких способа, сводящие задачу поиска вектора PageRank к задаче поиска равновесия в антагонистической матричной игре, которая затем решается с помощью алгоритма Григориадиса – Хачияна. При этом данная реализация эффективно работает в предположении о разреженности матрицы, подаваемой на вход. Насколько нам известно, до сих пор не было ни одной успешной реализации ни алгоритма Григориадиса – Хачияна, ни его применения к задаче поиска вектора PageRank. Данная статья ставит перед собой задачу восполнить этот пробел. В работе приводится описание двух версий алгоритма с псевдокодом и некоторые детали их реализации. Кроме того, в работе рассматривается другой вероятностный метод поиска вектора PageRank, а именно Markov chain Monte Carlo (MCMC), с целью сравнения результатов работы указанных алгоритмов на матрицах с различными значениями спектральной щели. Последнее представляет особый интерес, поскольку значение спектральной щели сильно влияет на скорость сходимости MCMC, и не оказывает никакого влияния на два других подхода. Сравнение проводилось на сгенерированных графах двух видов: цепочках и $d$-мерных кубах. Проведенные эксперименты, как и предсказывает теория, демонстрируют эффективность алгоритма Григориадиса – Хачияна по сравнению с MCMC для разреженных графов с маленьким значением спектральной щели. Весь код находится в открытом доступе, так чтобы все желающие могли воспроизвести полученные результаты самостоятельно, или же использовать данную реализацию в своих нуждах. Работа имеет чисто практическую направленность, никаких теоретических результатов авторами получено не было.

    Skachkov D.A., Gladyshev S.I., Raigorodsky A.M.
    Experimental comparison of PageRank vector calculation algorithms
    Computer Research and Modeling, 2023, v. 15, no. 2, pp. 369-379

    Finding PageRank vector is of great scientific and practical interest due to its applicability to modern search engines. Despite the fact that this problem is reduced to finding the eigenvector of the stochastic matrix $P$, the need for new algorithms is justified by a large size of the input data. To achieve no more than linear execution time, various randomized methods have been proposed, returning the expected result only with some probability close enough to one. We will consider two of them by reducing the problem of calculating the PageRank vector to the problem of finding equilibrium in an antagonistic matrix game, which is then solved using the Grigoriadis – Khachiyan algorithm. This implementation works effectively under the assumption of sparsity of the input matrix. As far as we know, there are no successful implementations of neither the Grigoriadis – Khachiyan algorithm nor its application to the task of calculating the PageRank vector. The purpose of this paper is to fill this gap. The article describes an algorithm giving pseudocode and some details of the implementation. In addition, it discusses another randomized method of calculating the PageRank vector, namely, Markov chain Monte Carlo (MCMC), in order to compare the results of these algorithms on matrices with different values of the spectral gap. The latter is of particular interest, since the magnitude of the spectral gap strongly affects the convergence rate of MCMC and does not affect the other two approaches at all. The comparison was carried out on two types of generated graphs: chains and $d$-dimensional cubes. The experiments, as predicted by the theory, demonstrated the effectiveness of the Grigoriadis – Khachiyan algorithm in comparison with MCMC for sparse graphs with a small spectral gap value. The written code is publicly available, so everyone can reproduce the results themselves or use this implementation for their own needs. The work has a purely practical orientation, no theoretical results were obtained.

  5. Недбайло Ю.А., Сурченко А.В., Бычков И.Н.
    Снижение частоты промахов в неинклюзивный кэш с инклюзивным справочником многоядерного процессора
    Компьютерные исследования и моделирование, 2023, т. 15, № 3, с. 639-656

    Хотя эпоха экспоненциального роста производительности компьютерных микросхем закончилась, даже настольные процессоры общего назначения сегодня имеют 16 и больше ядер. Поскольку пропускная способность памяти DRAM растет не с такой скоростью, как вычислительная мощность ядер, разработчики процессоров должны искать пути уменьшения частоты обменов с памятью на одну инструкцию. Непосредственным путем к этому является снижение частоты промахов в кэш последнего уровня. Предполагая уже реализованной схему «неинклюзивный кэш с инклюзивным справочником» (NCID), три способа дальнейшего снижения частоты промахов были исследованы.

    Первый способ — это достижение более равномерного использования банков и наборов кэша применением хэш-функций для интерливинга и индексирования. В экспериментах в тестах SPEC CPU2017 refrate, даже простейшие хэш-функции на основе XOR показали увеличение производительности на 3,2%, 9,1% и 8,2% в конфигурациях процессора с 16, 32 и 64 ядрами и банками общего кэша, сравнимое с результатами для более сложных функций на основе матриц, деления и CRC.

    Вторая оптимизация нацелена на уменьшение дублирования на разных уровнях кэшей путем автоматического переключения на эксклюзивную схему, когда она выглядит оптимальной. Известная схема этого типа, FLEXclusion, была модифицирована для использования в NCID-кэшах и показала улучшение производительности в среднемна 3,8%, 5,4% и 7,9% для 16-, 32- и 64-ядерных конфигураций.

    Третьей оптимизацией является увеличение фактической емкости кэша использованием компрессии. Частота сжатия недорогим и быстрыма лгоритмом B DI*-HL (Base-Delta-Immediate Modified, Half-Line), разработанным для NCID, была измерена, и соответствующее увеличение емкости кэша дало около 1% среднего повышения производительности.

    Все три оптимизации могут сочетаться и продемонстрировали прирост производительности в 7,7%, 16% и 19% для конфигураций с 16, 32 и 64 ядрами и банками соответственно.

    Nedbailo Y.A., Surchenko A.V., Bychkov I.N.
    Reducing miss rate in a non-inclusive cache with inclusive directory of a chip multiprocessor
    Computer Research and Modeling, 2023, v. 15, no. 3, pp. 639-656

    Although the era of exponential performance growth in computer chips has ended, processor core numbers have reached 16 or more even in general-purpose desktop CPUs. As DRAM throughput is unable to keep pace with this computing power growth, CPU designers need to find ways of lowering memory traffic per instruction. The straightforward way to do this is to reduce the miss rate of the last-level cache. Assuming “non-inclusive cache, inclusive directory” (NCID) scheme already implemented, three ways of reducing the cache miss rate further were studied.

    The first is to achieve more uniform usage of cache banks and sets by employing hash-based interleaving and indexing. In the experiments in SPEC CPU2017 refrate tests, even the simplest XOR-based hash functions demonstrated a performance increase of 3.2%, 9.1%, and 8.2% for CPU configurations with 16, 32, and 64 cores and last-level cache banks, comparable to the results of more complex matrix-, division- and CRC-based functions.

    The second optimisation is aimed at reducing replication at different cache levels by means of automatically switching to the exclusive scheme when it appears optimal. A known scheme of this type, FLEXclusion, was modified for use in NCID caches and showed an average performance gain of 3.8%, 5.4 %, and 7.9% for 16-, 32-, and 64-core configurations.

    The third optimisation is to increase the effective cache capacity using compression. The compression rate of the inexpensive and fast BDI*-HL (Base-Delta-Immediate Modified, Half-Line) algorithm, designed for NCID, was measured, and the respective increase in cache capacity yielded roughly 1% of the average performance increase.

    All three optimisations can be combined and demonstrated a performance gain of 7.7%, 16% and 19% for CPU configurations with 16, 32, and 64 cores and banks, respectively.

  6. Варшавский Л.Е.
    Техника проведения расчетов динамики показателей олигополистических рынков на основе операционного исчисления
    Компьютерные исследования и моделирование, 2019, т. 11, № 5, с. 949-963

    В настоящее время наиболее распространенный подход к расчету оптимальных по Нэшу–Курно стратегий участников олигополистических рынков, а следовательно и показателей таких рынков, связан с использованием линейных динамических игр с квадратичными критериями и решением обобщенных матричных уравнений Риккати.

    Другой подход к исследованию оптимальных разомкнутых (open-loop) стратегий участников олигополистических рынков, развиваемый автором, основан на использовании операционного исчисления (в частности, Z-преобразования). Этот подход позволяет получить экономически приемлемые решения для более широкого диапазона изменения параметров используемых моделей, чем при применении методов, основанных на решении обобщенных матричных уравнений Риккати. Метод отличается относительной простотой вычислений и необходимой для экономического анализа наглядностью. Одним из его достоинств является то, что во многих важных для экономической практики случаях он, в отличие от традиционного подхода, обеспечивает возможность проведения расчетов с использованием широко распространенных электронных таблиц, что позволяет проводить исследование перспектив развития олигополистических рынков широкому кругу специалистов и потребителей.

    В статье рассматриваются практические аспекты определения оптимальных по Нэшу–Курно стратегий участников олигополистических рынков на основе операционного исчисления, в частности техника проведения расчетов оптимальных по Нэшу–Курно стратегий в среде Excel. В качестве иллюстрации возможностей предлагаемых методов расчета исследуются примеры, близкие к практическим задачам прогнозирования показателей рынков высокотехнологичной продукции.

    Полученные автором для многочисленных примеров и реальных экономических систем результаты расчетов, как с использованием полученных соотношений на основе электронных таблиц, так и с использованием расширенных уравнений Риккати, оказываются весьма близкими. В большинстве рассмотренных практических задач отклонение рассчитанных в соответствии с двумя подходами показателей, как правило, не превышает 1.5–2 %. Наибольшая величина относительных отклонений (до 3–5 %) наблюдается в начале периода прогнозирования. В типичных случаях период сравнительно заметных отклонений составляет 3–5 моментов времени. После переходного периода наблюдается практически полное совпадение значений искомых показателей при использовании обоих подходов.

    Varshavsky L.E.
    Studying indicators of development of oligopolistic markets on the basis of operational calculus
    Computer Research and Modeling, 2019, v. 11, no. 5, pp. 949-963

    The traditional approach to computing optimal game strategies of firms on oligopolistic markets and of indicators of such markets consists in studying linear dynamical games with quadratic criteria and solving generalized matrix Riccati equations.

    The other approach proposed by the author is based on methods of operational calculus (in particular, Z-transform). This approach makes it possible to achieve economic meaningful decisions under wider field of parameter values. It characterizes by simplicity of computations and by necessary for economic analysis visibility. One of its advantages is that in many cases important for economic practice, it, in contrast to the traditional approach, provides the ability to make calculations using widespread spreadsheets, which allows to study the prospects for the development of oligopolistic markets to a wide range of professionals and consumers.

    The article deals with the practical aspects of determining the optimal Nash–Cournot strategies of participants in oligopolistic markets on the basis of operational calculus, in particular the technique of computing the optimal Nash–Cournot strategies in Excel. As an illustration of the opportinities of the proposed methods of calculation, examples close to the practical problems of forecasting indicators of the markets of high-tech products are studied.

    The results of calculations obtained by the author for numerous examples and real economic systems, both using the obtained relations on the basis of spreadsheets and using extended Riccati equations, are very close. In most of the considered practical problems, the deviation of the indicators calculated in accordance with the two approaches, as a rule, does not exceed 1.5–2%. The highest value of relative deviations (up to 3–5%) is observed at the beginning of the forecasting period. In typical cases, the period of relatively noticeable deviations is 3–5 moments of time. After the transition period, there is almost complete agreement of the values of the required indicators using both approaches.

  7. Статья посвящена исследованию социально-экономических последствий от вирусных эпидемий в условиях неоднородности экономического развития территориальных систем. Актуальность исследования обусловлена необходимостью поиска оперативных механизмов государственного управления и стабилизации неблагоприятной эпидемио-логической ситуации с учетом пространственной неоднородности распространения COVID-19, сопровождающейся концентрацией инфекции в крупных мегаполисах и на территориях с высокой экономической активностью.

    Целью работы является разработка комплексного подхода к исследованию пространственной неоднородности распространения коронавирусной инфекции с точки зрения экономических последствий пандемии в регионах России. В работе особое внимание уделяется моделированию последствий ухудшающейся эпидемиологической ситуации на динамике экономического развития региональных систем, определению полюсов роста распространения коронавирусной инфекции, пространственных кластеров и зон их влияния с оценкой межтерриториальных взаимосвязей. Особенностью разработанного подхода является пространственная кластеризация региональных систем по уровню заболеваемости COVID-19, проведенная с использованием глобального и локальных индексов пространственной автокорреляции, различных матриц пространственных весов и матрицы взаимовлияния Л.Анселина на основе статистической информации Росстата. В результате проведенного исследования были выявлены пространственный кластер, отличающийся высоким уровнем инфицирования COVID-19 с сильной зоной влияния и устойчивыми межрегиональными взаимосвязями с окружающими регионами, а также сформировавшиеся полюса роста, которые являются потенциальными полюсами дальнейшего распространения коронавирусной инфекции. Проведенный в работе регрессионный анализ с использованием панельных данных позволил сформировать модель для сценарного прогнозирования последствий от распространения коронавирусной инфекции и принятия управленческих решений органами государственной власти.

    В работе выявлено, что увеличение числа заболевших коронавирусной инфекцией влияет на сокращение среднесписочной численности работников, снижение средней начисленной заработной платы. Предложенный подход к моделированию последствий COVID-19 может быть расширен за счет использования полученных результатов исследования при проектировании агент-ориентированной моделей, которые позволят оценить средне- и долгосрочные социально-экономические последствия пандемии с точки зрения особенностей поведения различных групп населения. Проведение компьютерных экспериментов позволит воспроизвести социально-демографическая структуру населения и оценить различные ограничительные меры в регионах России и сформировать пространственные приоритеты поддержки населения и бизнеса в условиях пандемии. На основе предлагаемого методологического подхода может быть разработана агент-ориентированная модель в виде программного комплекса, предназначенного для системы поддержки принятия решений оперативным штабам, центрам мониторинга эпидемиологической ситуации, органам государственного управления на федеральном и региональном уровнях.

    Naumov I.V., Otmakhova Y.S., Krasnykh S.S.
    Methodological approach to modeling and forecasting the impact of the spatial heterogeneity of the COVID-19 spread on the economic development of Russian regions
    Computer Research and Modeling, 2021, v. 13, no. 3, pp. 629-648

    The article deals with the development of a methodological approach to forecasting and modeling the socioeconomic consequences of viral epidemics in conditions of heterogeneous economic development of territorial systems. The relevance of the research stems from the need for rapid mechanisms of public management and stabilization of adverse epidemiological situation, taking into account the spatial heterogeneity of the spread of COVID-19, accompanied by a concentration of infection in large metropolitan areas and territories with high economic activity. The aim of the work is to substantiate a methodology to assess the spatial heterogeneity of the spread of coronavirus infection, find poles of its growth, emerging spatial clusters and zones of their influence with the assessment of inter-territorial relationships, as well as simulate the effects of worsening epidemiological situation on the dynamics of economic development of regional systems. The peculiarity of the developed approach is the spatial clustering of regional systems by the level of COVID-19 incidence, conducted using global and local spatial autocorrelation indices, various spatial weight matrices, and L.Anselin mutual influence matrix based on the statistical information of the Russian Federal State Statistics Service. The study revealed a spatial cluster characterized by high levels of infection with COVID-19 with a strong zone of influence and stable interregional relationships with surrounding regions, as well as formed growth poles which are potential poles of further spread of coronavirus infection. Regression analysis using panel data not only confirmed the impact of COVID-19 incidence on the average number of employees in enterprises, the level of average monthly nominal wages, but also allowed to form a model for scenario prediction of the consequences of the spread of coronavirus infection. The results of this study can be used to form mechanisms to contain the coronavirus infection and stabilize socio-economic at macroeconomic and regional level and restore the economy of territorial systems, depending on the depth of the spread of infection and the level of economic damage caused.

  8. Степанян И.В.
    Биоматематическая система методов описания нуклеиновых кислот
    Компьютерные исследования и моделирование, 2020, т. 12, № 2, с. 417-434

    Статья посвящена применению методов математического анализа, поиска паттернов и изучения состава нуклеотидов в последовательностях ДНК на геномном уровне. Изложены новые методы математической биологии, которые позволили обнаружить и отобразить скрытую упорядоченность генетических нуклеотидных последовательностей, находящихся в клетках живых организмов. Исследования основаны на работах по алгебраической биологии доктора физико-математических наук С. В. Петухова, которым впервые были введены и обоснованы новые алгебры и гиперкомплексные числовые системы, описывающие генетические явления. В данной работе описана новая фаза развития матричных методов в генетике для исследования свойств нуклеотидных последовательностей (и их физико-химических параметров), построенная на принципах конечной геометрии. Целью исследования является демонстрация возможностей новых алгоритмов и обсуждение обнаруженных свойств генетических молекул ДНК и РНК. Исследование включает три этапа: параметризация, масштабирование и визуализация. Параметризация — определение учитываемых параметров, которые основаны на структурных и физико-химических свойствах нуклеотидов как элементарных составных частей генома. Масштабирование играет роль «фокусировки» и позволяет исследовать генетические структуры в различных масштабах. Визуализация включает выбор осей координатной системы и способа визуального отображения. Представленные в работе алгоритмы выдвигаются на роль расширенного инструментария для развития научно-исследовательского программного обеспечения анализа длинных нуклеотидных последовательностей с возможностью отображения геномов в параметрических пространствах различной размерности. Одним из значимых результатов исследования является то, что были получены новые биологически интерпретируемые критерии классификации геномов различных живых организмов для выявления межвидовых взаимосвязей. Новая концепция позволяет визуально и численно оценить вариативность физико-химических параметров нуклеотидных последовательностей. Эта концепция также позволяет обосновать связь параметров молекул ДНК и РНК с фрактальными геометрическими мозаиками, обнаруживает упорядоченность и симметрии полинуклеотидов и их помехоустойчивость. Полученные результаты стали обоснованием для введения новых научных терминов: «генометрия» как методология вычислительных стратегий и «генометрика» как конкретные параметры того или иного генома или нуклеотидной последовательности. В связи с результатами исследования затронуты вопросы биосемиотики и уровни иерархичности организации живой материи.

    Stepanyan I.V.
    Biomathematical system of the nucleic acids description
    Computer Research and Modeling, 2020, v. 12, no. 2, pp. 417-434

    The article is devoted to the application of various methods of mathematical analysis, search for patterns and studying the composition of nucleotides in DNA sequences at the genomic level. New methods of mathematical biology that made it possible to detect and visualize the hidden ordering of genetic nucleotide sequences located in the chromosomes of cells of living organisms described. The research was based on the work on algebraic biology of the doctor of physical and mathematical sciences S. V. Petukhov, who first introduced and justified new algebras and hypercomplex numerical systems describing genetic phenomena. This paper describes a new phase in the development of matrix methods in genetics for studying the properties of nucleotide sequences (and their physicochemical parameters), built on the principles of finite geometry. The aim of the study is to demonstrate the capabilities of new algorithms and discuss the discovered properties of genetic DNA and RNA molecules. The study includes three stages: parameterization, scaling, and visualization. Parametrization is the determination of the parameters taken into account, which are based on the structural and physicochemical properties of nucleotides as elementary components of the genome. Scaling plays the role of “focusing” and allows you to explore genetic structures at various scales. Visualization includes the selection of the axes of the coordinate system and the method of visual display. The algorithms presented in this work are put forward as a new toolkit for the development of research software for the analysis of long nucleotide sequences with the ability to display genomes in parametric spaces of various dimensions. One of the significant results of the study is that new criteria were obtained for the classification of the genomes of various living organisms to identify interspecific relationships. The new concept allows visually and numerically assessing the variability of the physicochemical parameters of nucleotide sequences. This concept also allows one to substantiate the relationship between the parameters of DNA and RNA molecules with fractal geometric mosaics, reveals the ordering and symmetry of polynucleotides, as well as their noise immunity. The results obtained justified the introduction of new terms: “genometry” as a methodology of computational strategies and “genometrica” as specific parameters of a particular genome or nucleotide sequence. In connection with the results obtained, biosemiotics and hierarchical levels of organization of living matter are raised.

  9. Карпаев А.А., Алиев Р.Р.
    Применение упрощенного неявного метода Эйлера для решения задач электрофизиологии
    Компьютерные исследования и моделирование, 2020, т. 12, № 4, с. 845-864

    Рассматривается упрощенный неявный метод Эйлера как альтернатива явному методу Эйлера, являющемуся наиболее распространенным в области численного решения уравнений, описывающих электрическую активность нервных клеток и кардиоцитов. Многие модели электрофизиологии имеют высокую степень жесткости, так как описывают динамику процессов с существенно разными характерными временами: миллисекундная деполяризации предшествует значительно более медленной гиперполяризации при формировании потенциала действия в электровозбудимых клетках. Оценка степени жесткости в работе проводится по формуле, не требующей вычисления собственных значений матрицы Якоби системы ОДУ. Эффективность численных методов сравнивается на примере типичных представителей из классов детальных и концептуальных моделей возбудимых клеток: модели Ходжкина–Хаксли для нейронов и Алиева–Панфилова для кардиоцитов. Сравнение эффективности численных методов проведено с использованием распространенных в биомедицинских задачах видов норм. Исследовано влияние степени жесткости моделей на величину ускорения при использовании упрощенного неявного метода: выигрыш во времени при высокой степени жесткости зафиксирован только для модели Ходжкина–Хаксли. Обсуждаются целесообразность применения простых методов и методов высоких порядков точности для решения задач электрофизиологии, а также устойчивость методов. Обсуждение позволяет прояснить вопрос о причинах отказа от использования высокоточных методов в пользу простых при проведении практических расчетов. На примере модели Ходжкина–Хаксли c различными степенями жесткости вычислены производные решения высших порядков и обнаружены их значительные максимальные абсолютные значения. Последние входят в формулы констант аппроксимации и, следовательно, нивелируют малость множителя, зависящего от порядка точности. Этот факт не позволяет считать погрешности численного метода малыми. Проведенный на качественном уровне анализ устойчивости явного метода Эйлера позволяет оценить вид функции параметров модели для описания границы области устойчивости. Описание границы области устойчивости, как правило, используется при априорном принятии решения о выборе величины шага численного интегрирования.

    Karpaev A.A., Aliev R.R.
    Application of simplified implicit Euler method for electrophysiological models
    Computer Research and Modeling, 2020, v. 12, no. 4, pp. 845-864

    A simplified implicit Euler method was analyzed as an alternative to the explicit Euler method, which is a commonly used method in numerical modeling in electrophysiology. The majority of electrophysiological models are quite stiff, since the dynamics they describe includes a wide spectrum of time scales: a fast depolarization, that lasts milliseconds, precedes a considerably slow repolarization, with both being the fractions of the action potential observed in excitable cells. In this work we estimate stiffness by a formula that does not require calculation of eigenvalues of the Jacobian matrix of the studied ODEs. The efficiency of the numerical methods was compared on the case of typical representatives of detailed and conceptual type models of excitable cells: Hodgkin–Huxley model of a neuron and Aliev–Panfilov model of a cardiomyocyte. The comparison of the efficiency of the numerical methods was carried out via norms that were widely used in biomedical applications. The stiffness ratio’s impact on the speedup of simplified implicit method was studied: a real gain in speed was obtained for the Hodgkin–Huxley model. The benefits of the usage of simple and high-order methods for electrophysiological models are discussed along with the discussion of one method’s stability issues. The reasons for using simplified instead of high-order methods during practical simulations were discussed in the corresponding section. We calculated higher order derivatives of the solutions of Hodgkin-Huxley model with various stiffness ratios; their maximum absolute values appeared to be quite large. A numerical method’s approximation constant’s formula contains the latter and hence ruins the effect of the other term (a small factor which depends on the order of approximation). This leads to the large value of global error. We committed a qualitative stability analysis of the explicit Euler method and were able to estimate the model’s parameters influence on the border of the region of absolute stability. The latter is used when setting the value of the timestep for simulations a priori.

  10. Сафиуллина Л.Ф., Губайдуллин И.М.
    Анализ идентифицируемости математической модели пиролиза пропана
    Компьютерные исследования и моделирование, 2021, т. 13, № 5, с. 1045-1057

    Работа посвящена численному моделированию и исследованию кинетической модели пиролиза пропана. Изучение кинетики реакций является необходимой стадией моделирования динамики газового потока в реакторе.

    Кинетическая модель представляет собой нелинейную систему обыкновенных дифференциальных уравнений первого порядка с параметрами, роль которых играют константы скоростей стадий. Математическое моделирование процесса основано на использовании закона сохранения масс. Для решения исходной (прямой) задачи используется неявный метод решения жестких систем обыкновенных дифференциальных уравнений. Модель содержит 60 входных кинетических параметров и 17 выходных параметров, соответствующих веществам реакции, из которых наблюдаемыми являются только 9. В процессе решения задачи по оценке параметров (обратная задача) возникает вопрос неединственности набора параметров, удовлетворяющего имеющимся экспериментальным данным. Поэтому перед решением обратной задачи проводится оценка возможности определения параметров модели — анализ идентифицируемости.

    Для анализа идентифицируемости мы используем ортогональный метод, который хорошо себя зарекомендовал для анализа моделей с большим числом параметров. Основу алгоритма составляет анализ матрицы чувствительно- сти методами дифференциальной и линейной алгебры, показывающей степень зависимости неизвестных параметров моделей от заданных измерений. Анализ чувствительности и идентифицируемости показал, что параметры модели устойчиво определяются по заданному набору экспериментальных данных. В статье представлен список параметров модели от наиболее идентифицируемого до наименее идентифицируемого. Учитывая анализ идентифицируемости математической модели, были введены более жесткие ограничения на поиск слабоидентифицируемых параметров при решении обратной задачи.

    Обратная задача по оценке параметров была решена с использованием генетического алгоритма. В статье представлены найденные оптимальные значения кинетических параметров. Представлено сравнение экспериментальных и расчетных зависимостей концентраций пропана, основных и побочных продуктов реакции от температуры для разных расходов смеси. На основании соответствия полученных результатов физико-химическим законам и экспериментальным данным сделан вывод об адекватности построенной математической модели.

    Safiullina L.F., Gubaydullin I.M.
    Analysis of the identifiability of the mathematical model of propane pyrolysis
    Computer Research and Modeling, 2021, v. 13, no. 5, pp. 1045-1057

    The article presents the numerical modeling and study of the kinetic model of propane pyrolysis. The study of the reaction kinetics is a necessary stage in modeling the dynamics of the gas flow in the reactor.

    The kinetic model of propane pyrolysis is a nonlinear system of ordinary differential equations of the first order with parameters, the role of which is played by the reaction rate constants. Math modeling of processes is based on the use of the mass conservation law. To solve an initial (forward) problem, implicit methods for solving stiff ordinary differential equation systems are used. The model contains 60 input kinetic parameters and 17 output parameters corresponding to the reaction substances, of which only 9 are observable. In the process of solving the problem of estimating parameters (inverse problem), there is a question of non-uniqueness of the set of parameters that satisfy the experimental data. Therefore, before solving the inverse problem, the possibility of determining the parameters of the model is analyzed (analysis of identifiability).

    To analyze identifiability, we use the orthogonal method, which has proven itself well for analyzing models with a large number of parameters. The algorithm is based on the analysis of the sensitivity matrix by the methods of differential and linear algebra, which shows the degree of dependence of the unknown parameters of the models on the given measurements. The analysis of sensitivity and identifiability showed that the parameters of the model are stably determined from a given set of experimental data. The article presents a list of model parameters from most to least identifiable. Taking into account the analysis of the identifiability of the mathematical model, restrictions were introduced on the search for less identifiable parameters when solving the inverse problem.

    The inverse problem of estimating the parameters was solved using a genetic algorithm. The article presents the found optimal values of the kinetic parameters. A comparison of the experimental and calculated dependences of the concentrations of propane, main and by-products of the reaction on temperature for different flow rates of the mixture is presented. The conclusion about the adequacy of the constructed mathematical model is made on the basis of the correspondence of the results obtained to physicochemical laws and experimental data.

Страницы: « первая предыдущая следующая

Журнал индексируется в Scopus

Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU

Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science

Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"

Международная Междисциплинарная Конференция МАТЕМАТИКА. КОМПЬЮТЕР. ОБРАЗОВАНИЕ.