Текущий выпуск Номер 2, 2024 Том 16

Все выпуски

Результаты поиска по 'model reduction':
Найдено статей: 28
  1. Атеросклеротические заболевания, такие как атеросклероз сонной артерии и хронические болезни почек, являются основными причинами смерти во всем мире. Возникновение таких атеросклеротических болезней в артериях зависит от сложной динамики кровотока и ряда гемодинамических параметров. Атеросклероз почечных артерий приводит к уменьшению артериальной эффективности и в конечном счете приводит к почечной артериальной гипертензии. В данной работе делается попытка определить локализацию атеросклеротической бляшки в брюшной аорте человека в окрестности соединения с почечной артерией с использованием средств вычислительной гидродинамики (CFD).

    Области, подверженные атеросклерозу, в идеализированном соединении брюшной аорты и почечной артерии человека определяются в результате вычислений некоторых гемодинамических показателей. При вычислениях используется точная реологическая модель крови человека, предложенная Yeleswarapu. Кровоток вычисляется в трехмерной модельной области соединения артерий с использованием пакета ANSYS FLUENT v18.2.

    Вычисленные гемодинамические показатели представляют собой среднее значение напряжения сдвига на стенке сосуда (AWSS), колебательный сдвиговый индекс (OSI) и относительное время задержки (RRT). Моделирование пульсирующего течения (f = 1.25 Гц, Re = 1000) показывает, что малое значение AWSS и высокий индекс OSI возникают в областях почечной артерии вниз по течению от соединения и в инфраренальном отделе брюшной аорты вблизи соединения. Высокий RRT, который является относительным индексом и зависит как от AWSS, так и OSI, как показано в данной работе, сочетается с низким AWSS и высоким OSI в краниальной части поверхности почечной артерии, проксимальной около соединения и на латеральной поверхности вблизи бифуркации брюшной аорты: это указывает, что эти области наиболее всего подвержены атеросклерозу. Результаты качественно соответствуют литературным данным. Они могут служить начальным этапом исследований и иллюстрировать пользу средств вычислительной гидродинамики (CFD) для определения местоположения атеросклеротической бляшки.

    Ameenuddin M., Anand M.
    CFD analysis of hemodynamics in idealized abdominal aorta-renal artery junction: preliminary study to locate atherosclerotic plaque
    Computer Research and Modeling, 2019, v. 11, no. 4, pp. 695-706

    Atherosclerotic diseases such as carotid artery diseases (CAD) and chronic kidney diseases (CKD) are the major causes of death worldwide. The onset of these atherosclerotic diseases in the arteries are governed by complex blood flow dynamics and hemodynamic parameters. Atherosclerosis in renal arteries leads to reduction in arterial efficiency, which ultimately leads to Reno-vascular hypertension. This work attempts to identify the localization of atherosclerotic plaque in human abdominal aorta — renal artery junction using Computational fluid dynamics (CFD).

    The atherosclerosis prone regions in an idealized human abdominal aorta-renal artery junction are identified by calculating relevant hemodynamic indicators from computational simulations using the rheologically accurate shear-thinning Yeleswarapu model for human blood. Blood flow is numerically simulated in a 3-D model of the artery junction using ANSYS FLUENT v18.2.

    Hemodynamic indicators calculated are average wall shear stress (AWSS), oscillatory shear index (OSI), and relative residence time (RRT). Simulations of pulsatile flow (f=1.25 Hz, Re = 1000) show that low AWSS, and high OSI manifest in the regions of renal artery downstream of the junction and on the infrarenal section of the abdominal aorta lateral to the junction. High RRT, which is a relative index and dependent on AWSS and OSI, is found to overlap with the low AWSS and high OSI at the cranial surface of renal artery proximal to the junction and on the surface of the abdominal aorta lateral to the bifurcation: this indicates that these regions of the junction are prone to atherosclerosis. The results match qualitatively with the findings reported in literature and serve as initial step to illustrate utility of CFD for the location of atherosclerotic plaque.

    Просмотров за год: 3.
  2. Минкевич И.Г.
    Стехиометрия метаболических путей в динамике клеточных популяций
    Компьютерные исследования и моделирование, 2011, т. 3, № 4, с. 455-475

    Проанализированы проблемы соответствия кинетических моделей клеточного метаболизма описываемому ими объекту. Изложены основы стехиометрии полного метаболизма и его больших частей. Описана биоэнергетическая форма стехиометрии, основанная на универсальной единице восстановленности химических соединений (редоксон). Выведены уравнения материально-энергетического баланса (биоэнергетической стехиометрии) метаболических потоков, в том числе баланса протонов с высоким электрохимическим потенциалом μH+ и макроэргических соединений. Получены соотношения, выражающие выход биомассы, скорость потребления источника энергии для роста и другие физиологически важные величины через биохимические характеристики клеточной энергетики. Вычислены значения максимального энергетического выхода биомассы при использовании клетками различных источников энергии. Эти значения совпадают с экспериментальными данными.

    Minkevich I.G.
    The stoichiometry of metabolic pathways in the dynamics of cellular populations
    Computer Research and Modeling, 2011, v. 3, no. 4, pp. 455-475

    The problem has been considered, to what extent the kinetic models of cellular metabolism fit the matter which they describe. Foundations of stoichiometry of the whole metabolism and its large regions have been stated. A bioenergetic representation of stoichiometry based on a universal unit of chemical compound reductivity, viz., redoxon, has been described. Equations of mass-energy balance (bioenergetic variant of stoichiometry) have been derived for metabolic flows including those of protons possessing high electrochemical potential μH+, and high-energy compounds. Interrelations have been obtained which determine the biomass yield, rate of uptake of energy source for cell growth and other important physiological quantities as functions of biochemical characteristics of cellular energetics. The maximum biomass energy yield values have been calculated for different energy sources utilized by cells. These values coincide with those measured experimentally.

    Просмотров за год: 5. Цитирований: 1 (РИНЦ).
  3. Усанов М.С., Кульберг Н.С., Яковлева Т.В., Морозов С.П.
    Определение дозы излучения компьютерной томографии по анализу уровня шума
    Компьютерные исследования и моделирование, 2018, т. 10, № 4, с. 525-533

    В статье рассматривается процесс создания эффективного алгоритма для определения количества излученных квантов с рентгеновской трубки в исследованиях компьютерной томографии. Анализ отечественной и зарубежной литературы показал, что большинство работ в области радиометрии и радиографии принимают во внимание табличные значения показателей поглощения рентгеновского излучения, а индивидуальные показатели дозы не учитывают вовсе, т. к. во многих исследованиях отсутствует радиометрический отчет (Dose Report) и для облегчения расчетов статистики применяется средний показатель. В связи с этим было принято решение разработать средства выявления данных об ионизирующей нагрузке путем анализа шума компьютерной томографии (КТ). В качестве основы алгоритма принята математическая модель распределения шума собственной разработки на основе распределения Пуассона и Гаусса от логарифмической величины. Результирующая математическая модель проверялась на данных КТ калибровочного фантома, состоящего из трех пластиковых цилиндров, заполненных водой, коэффициент поглощения рентгеновского излучения которых известен из табличных значений. Данные были получены с нескольких КТ приборов различных производителей (Siemens, Toshiba, GE, Phillips). Разработанный алгоритм позволил рассчитать количество излученных квантов рентгеновского излучения за единицу времени. Эти данные, с учетом уровня шума и радиусов цилиндров, были преобразованы в величины поглощения рентгеновского излучения, после чего проводилось сравнение с табличными значениями. В результате работы алгоритма с данными КТ различных конфигураций были получены экспериментальные данные, согласующиеся с теоретической частью и математической моделью. Результаты показали хорошую точность алгоритма и математического аппарата, что может говорить о достоверности полученных данных. Данная математическая модель уже применяется в программе шумоподавления КТ собственной разработки, где она участвует в качестве средства создания динамического порога шумоподавления. В данный момент алгоритм проходит процедуру доработки для работы с реальными данными компьютерной томографии пациентов.

    Usanov M.S., Kulberg N.S., Yakovleva T.V., Morozov S.P.
    Determination of CT dose by means of noise analysis
    Computer Research and Modeling, 2018, v. 10, no. 4, pp. 525-533

    The article deals with the process of creating an effective algorithm for determining the amount of emitted quanta from an X-ray tube in computer tomography (CT) studies. An analysis of domestic and foreign literature showed that most of the work in the field of radiometry and radiography takes the tabulated values of X-ray absorption coefficients into account, while individual dose factors are not taken into account at all since many studies are lacking the Dose Report. Instead, an average value is used to simplify the calculation of statistics. In this regard, it was decided to develop a method to detect the amount of ionizing quanta by analyzing the noise of CT data. As the basis of the algorithm, we used Poisson and Gauss distribution mathematical model of owns’ design of logarithmic value. The resulting mathematical model was tested on the CT data of a calibration phantom consisting of three plastic cylinders filled with water, the X-ray absorption coefficient of which is known from the table values. The data were obtained from several CT devices from different manufacturers (Siemens, Toshiba, GE, Phillips). The developed algorithm made it possible to calculate the number of emitted X-ray quanta per unit time. These data, taking into account the noise level and the radiuses of the cylinders, were converted to X-ray absorption values, after which a comparison was made with tabulated values. As a result of this operation, the algorithm used with CT data of various configurations, experimental data were obtained, consistent with the theoretical part and the mathematical model. The results showed good accuracy of the algorithm and mathematical apparatus, which shows reliability of the obtained data. This mathematical model is already used in the noise reduction program of the CT of own design, where it participates as a method of creating a dynamic threshold of noise reduction. At the moment, the algorithm is being processed to work with real data from computer tomography of patients.

    Просмотров за год: 23. Цитирований: 1 (РИНЦ).
  4. Игнатьев Н.А., Тулиев У.Ю.
    Семантическая структуризация текстовых документов на основе паттернов сущностей естественного языка
    Компьютерные исследования и моделирование, 2022, т. 14, № 5, с. 1185-1197

    Рассматривается технология создания паттернов из слов (понятий) естественного языка по текстовым данным в модели «мешок слов». Паттерны применяются для снижения размерности исходного пространства в описании документов и поиска семантически связанных слов по темам. Процесс снижения размерности реализуется через формирование по паттернам латентных признаков. Исследуется многообразие структур отношений документов для разбиения их на темы в латентном пространстве.

    Считается, что заданное множество документов (объектов) разделено на два непересекающихся класса, для анализа которых необходимо использовать общий словарь. Принадлежность слов к общему словарю изначально неизвестна. Объекты классов рассматриваются в ситуации оппозиции друг к другу. Количественные параметры оппозиционности определяются через значения устойчивости каждого признака и обобщенные оценки объектов по непересекающимся наборам признаков.

    Для вычисления устойчивости используются разбиения значений признаков на непересекающиеся интервалы, оптимальные границы которых определяются по специальному критерию. Максимум устойчивости достигается при условии, что в границах каждого интервала содержатся значения одного из двух классов.

    Состав признаков в наборах (паттернах из слов) формируется из упорядоченной по значениям устойчивости последовательности. Процесс формирования паттернов и латентных признаков на их основе реализуется по правилам иерархической агломеративной группировки.

    Набор латентных признаков используется для кластерного анализа документов по метрическим алгоритмам группировки. В процессе анализа применяется коэффициент контентной аутентичности на основе данных о принадлежности документов к классам. Коэффициент является численной характеристикой доминирования представителей классов в группах.

    Для разбиения документов на темы предложено использовать объединение групп по отношению их центров. В качестве закономерностей по каждой теме рассматривается упорядоченная по частоте встречаемости последовательность слов из общего словаря.

    Приводятся результаты вычислительного эксперимента на коллекциях авторефератов научных диссертаций. Сформированы последовательности слов из общего словаря по четырем темам.

    Ignatev N.A., Tuliev U.Y.
    Semantic structuring of text documents based on patterns of natural language entities
    Computer Research and Modeling, 2022, v. 14, no. 5, pp. 1185-1197

    The technology of creating patterns from natural language words (concepts) based on text data in the bag of words model is considered. Patterns are used to reduce the dimension of the original space in the description of documents and search for semantically related words by topic. The process of dimensionality reduction is implemented through the formation of patterns of latent features. The variety of structures of document relations is investigated in order to divide them into themes in the latent space.

    It is considered that a given set of documents (objects) is divided into two non-overlapping classes, for the analysis of which it is necessary to use a common dictionary. The belonging of words to a common vocabulary is initially unknown. Class objects are considered as opposition to each other. Quantitative parameters of oppositionality are determined through the values of the stability of each feature and generalized assessments of objects according to non-overlapping sets of features.

    To calculate the stability, the feature values are divided into non-intersecting intervals, the optimal boundaries of which are determined by a special criterion. The maximum stability is achieved under the condition that the boundaries of each interval contain values of one of the two classes.

    The composition of features in sets (patterns of words) is formed from a sequence ordered by stability values. The process of formation of patterns and latent features based on them is implemented according to the rules of hierarchical agglomerative grouping.

    A set of latent features is used for cluster analysis of documents using metric grouping algorithms. The analysis applies the coefficient of content authenticity based on the data on the belonging of documents to classes. The coefficient is a numerical characteristic of the dominance of class representatives in groups.

    To divide documents into topics, it is proposed to use the union of groups in relation to their centers. As patterns for each topic, a sequence of words ordered by frequency of occurrence from a common dictionary is considered.

    The results of a computational experiment on collections of abstracts of scientific dissertations are presented. Sequences of words from the general dictionary on 4 topics are formed.

  5. Предложен метод отображения промежуточных представлений C-, C++-программ в пространство векторов (эмбеддингов) для оценки производительности программ на этапе компиляции, без необходимости исполнения. Использование эмбеддингов для данной цели позволяет не проводить сравнение графов исследуемых программ непосредственно, что вычислительно упрощает задачу сравнения программ. Метод основан на серии трансформаций исходного промежуточного представления (IR), таких как: инструментирование — добавление фиктивных инструкций в оптимизационном проходе компилятора в зависимости от разности смещений в текущей инструкции обращения к памяти относительно предыдущей, преобразование IR в многомерный вектор с помощью технологии IR2Vec с понижением размерности по алгоритму t-SNE (стохастическое вложение соседей с t-распределением). В качестве метрики производительности предлагается доля кэш-промахов 1-го уровня (D1 cache misses). Приводится эвристический критерий отличия программ с большей долей кэш-промахов от программ с меньшей долей по их образам. Также описан разработанный в ходе работы проход компилятора, генерирующий и добавляющий фиктивные инструкции IR согласно используемой модели памяти. Приведено описание разработанного программного комплекса, реализующего предложенный способ оценивания на базе компиляторной инфраструктуры LLVM. Проведен ряд вычислительных экспериментов на синтетических тестах из наборов программ с идентичными потоками управления, но различным порядком обращений к одномерному массиву, показано, что коэффициент корреляции между метрикой производительности и расстоянием до эмбеддинга худшей программы в наборе отрицателен вне зависимости от инициализации t-SNE, что позволяет сделать заключение о достоверности эвристического критерия. Также в статье рассмотрен способ генерации тестов. По результатам экспериментов, вариативность значений метрики производительности на исследуемых множествах предложена как метрика для улучшения генератора тестов.

    Zavodskikh R.K., Efanov N.N.
    Performance prediction for chosen types of loops over one-dimensional arrays with embedding-driven intermediate representations analysis
    Computer Research and Modeling, 2023, v. 15, no. 1, pp. 211-224

    The method for mapping of intermediate representations (IR) set of C, C++ programs to vector embedding space is considered to create an empirical estimation framework for static performance prediction using LLVM compiler infrastructure. The usage of embeddings makes programs easier to compare due to avoiding Control Flow Graphs (CFG) and Data Flow Graphs (DFG) direct comparison. This method is based on transformation series of the initial IR such as: instrumentation — injection of artificial instructions in an instrumentation compiler’s pass depending on load offset delta in the current instruction compared to the previous one, mapping of instrumented IR into multidimensional vector with IR2Vec and dimension reduction with t-SNE (t-distributed stochastic neighbor embedding) method. The D1 cache miss ratio measured with perf stat tool is considered as performance metric. A heuristic criterion of programs having more or less cache miss ratio is given. This criterion is based on embeddings of programs in 2D-space. The instrumentation compiler’s pass developed in this work is described: how it generates and injects artificial instructions into IR within the used memory model. The software pipeline that implements the performance estimation based on LLVM compiler infrastructure is given. Computational experiments are performed on synthetic tests which are the sets of programs with the same CFGs but with different sequences of offsets used when accessing the one-dimensional array of a given size. The correlation coefficient between performance metric and distance to the worst program’s embedding is measured and proved to be negative regardless of t-SNE initialization. This fact proves the heuristic criterion to be true. The process of such synthetic tests generation is also considered. Moreover, the variety of performance metric in programs set in such a test is proposed as a metric to be improved with exploration of more tests generators.

  6. Василевский Ю.В., Симаков С.С., Гамилов Т.М., Саламатова В.Ю., Добросердова Т.К., Копытов Г.В., Богданов О.Н., Данилов А.А., Дергачев М.А., Добровольский Д.Д., Косухин О.Н., Ларина Е.В., Мелешкина А.В., Мычка Е.Ю., Харин В.Ю., Чеснокова К.В., Шипилов А.А.
    Персонализация математических моделей в кардиологии: трудности и перспективы
    Компьютерные исследования и моделирование, 2022, т. 14, № 4, с. 911-930

    Большинство биомеханических задач, представляющих интерес для клиницистов, могут быть решены только с помощью персонализированных математических моделей. Такие модели позволяют формализовать и взаимоувязать ключевые патофизиологические процессы, на основе клинически доступных данных оценить неизмеряемые параметры, важные для диагностики заболеваний, спрогнозировать результат терапевтического или хирургического вмешательства. Использование моделей в клинической практике накладывает дополнительные ограничения: практикующие врачи требуют валидации модели на клинических случаях, быстроту и автоматизированность всей расчетной технологической цепочки от обработки входных данных до получения результата. Ограничения на время расчета, определяемые временем принятия врачебного решения (порядка нескольких минут), приводят к необходимости использования методов редукции, корректно описывающих исследуемые процессы в рамках численных моделей пониженной размерности или в рамках методов машинного обучения.

    Персонализация моделей требует пациентоориентированной оценки параметров модели и создания персонализированной геометрии расчетной области и построения расчетной сетки. Параметры модели оцениваются прямыми измерениями, либо методами решения обратных задач, либо методами машинного обучения. Требование персонализации моделей накладывает серьезные ограничения на количество настраиваемых параметров модели, которые могут быть измерены в стандартных клинических условиях. Помимо параметров, модели включают краевые условия, которые также должны учитывать особенности пациента. Методы задания персонализированных краевых условий существенно зависят от решаемой клинической задачи, зоны ее интереса и доступных клинических данных. Построение персонализированной области посредством сегментации медицинских изображений и построение расчетной сетки, как правило, занимают значительную долю времени при разработке персонализированной вычислительной модели, так как часто выполняются в ручном или полуавтоматическом режиме. Разработка автоматизированных методов постановки персонализированных краевых условий и сегментации медицинских изображений с последующим построением расчетной сетки является залогом широкого использования математического моделирования в клинической практике.

    Цель настоящей работы — обзор и анализ наших решений по персонализации математических моделей в рамках трех задач клинической кардиологии: виртуальной оценки гемодинамической значимости стенозов коронарных артерий, оценки изменений системного кровотока после гемодинамической коррекции сложных пороков сердца, расчета характеристик коаптации реконструированного аортального клапана.

    Vassilevski Y.V., Simakov S.S., Gamilov T.M., Salamatova V.Yu., Dobroserdova T.K., Kopytov G.V., Bogdanov O.N., Danilov A.A., Dergachev M.A., Dobrovolskii D.D., Kosukhin O.N., Larina E.V., Meleshkina A.V., Mychka E.Yu., Kharin V.Yu., Chesnokova K.V., Shipilov A.A.
    Personalization of mathematical models in cardiology: obstacles and perspectives
    Computer Research and Modeling, 2022, v. 14, no. 4, pp. 911-930

    Most biomechanical tasks of interest to clinicians can be solved only using personalized mathematical models. Such models allow to formalize and relate key pathophysiological processes, basing on clinically available data evaluate non-measurable parameters that are important for the diagnosis of diseases, predict the result of a therapeutic or surgical intervention. The use of models in clinical practice imposes additional restrictions: clinicians require model validation on clinical cases, the speed and automation of the entire calculated technological chain, from processing input data to obtaining a result. Limitations on the simulation time, determined by the time of making a medical decision (of the order of several minutes), imply the use of reduction methods that correctly describe the processes under study within the framework of reduced models or machine learning tools.

    Personalization of models requires patient-oriented parameters, personalized geometry of a computational domain and generation of a computational mesh. Model parameters are estimated by direct measurements, or methods of solving inverse problems, or methods of machine learning. The requirement of personalization imposes severe restrictions on the number of fitted parameters that can be measured under standard clinical conditions. In addition to parameters, the model operates with boundary conditions that must take into account the patient’s characteristics. Methods for setting personalized boundary conditions significantly depend on the clinical setting of the problem and clinical data. Building a personalized computational domain through segmentation of medical images and generation of the computational grid, as a rule, takes a lot of time and effort due to manual or semi-automatic operations. Development of automated methods for setting personalized boundary conditions and segmentation of medical images with the subsequent construction of a computational grid is the key to the widespread use of mathematical modeling in clinical practice.

    The aim of this work is to review our solutions for personalization of mathematical models within the framework of three tasks of clinical cardiology: virtual assessment of hemodynamic significance of coronary artery stenosis, calculation of global blood flow after hemodynamic correction of complex heart defects, calculating characteristics of coaptation of reconstructed aortic valve.

  7. В статье обсуждается проблема влияния целей исследования на структуру многофакторной модели регрессионного анализа (в частности, на реализацию процедуры снижения размерности модели). Демонстрируется, как приведение спецификации модели множественной регрессии в соответствие целям исследования отражается на выборе методов моделирования. Сравниваются две схемы построения модели: первая не позволяет учесть типологию первичных предикторов и характер их влияния на результативные признаки, вторая схема подразумевает этап предварительного разбиения исходных предикторов на группы (в соответствии с целями исследования). На примере решения задачи анализа причин выгорания творческих работников показана важность этапа качественного анализа и систематизации априори отобранных факторов, который реализуется не вычислительными средствами, а за счет привлечения знаний и опыта специалистов в изучаемой предметной области.

    Представленный пример реализации подхода к определению спецификации регрессионной модели сочетает формализованные математико-статистические процедуры и предшествующий им этап классификации первичных факторов. Наличие указанного этапа позволяет объяснить схему управляющих (корректирующих) воздействий (смягчение стиля руководства и усиление одобрения приводят к снижению проявлений тревожности и стресса, что, в свою очередь, снижает степень выраженности эмоционального истощения участников коллектива). Предварительная классификация также позволяет избежать комбинирования в одной главной компоненте управляемых и неуправляемых, регулирующих и управляемых признаков-факторов, которое могло бы ухудшить интерпретируемость синтезированных предикторов.

    На примере конкретной задачи показано, что отбор факторов-регрессоров — это процесс, требующий индивидуального решения. В рассмотренном случае были последовательно использованы: систематизация признаков, корреляционный анализ, метод главных компонент, регрессионный анализ. Первые три метода позволили существенно сократить размерность задачи, что не повлияло на достижение цели, для которой эта задача была поставлена: были показаны существенные меры управляющего воздействия на коллектив, позволяющие снизить степень эмоционального выгорания его участников.

    The article discusses the problem of the influence of the research goals on the structure of the multivariate model of regression analysis (in particular, on the implementation of the procedure for reducing the dimension of the model). It is shown how bringing the specification of the multiple regression model in line with the research objectives affects the choice of modeling methods. Two schemes for constructing a model are compared: the first does not allow taking into account the typology of primary predictors and the nature of their influence on the performance characteristics, the second scheme implies a stage of preliminary division of the initial predictors into groups, in accordance with the objectives of the study. Using the example of solving the problem of analyzing the causes of burnout of creative workers, the importance of the stage of qualitative analysis and systematization of a priori selected factors is shown, which is implemented not by computing means, but by attracting the knowledge and experience of specialists in the studied subject area. The presented example of the implementation of the approach to determining the specification of the regression model combines formalized mathematical and statistical procedures and the preceding stage of the classification of primary factors. The presence of this stage makes it possible to explain the scheme of managing (corrective) actions (softening the leadership style and increasing approval lead to a decrease in the manifestations of anxiety and stress, which, in turn, reduces the severity of the emotional exhaustion of the team members). Preclassification also allows avoiding the combination in one main component of controlled and uncontrolled, regulatory and controlled feature factors, which could worsen the interpretability of the synthesized predictors. On the example of a specific problem, it is shown that the selection of factors-regressors is a process that requires an individual solution. In the case under consideration, the following were consistently used: systematization of features, correlation analysis, principal component analysis, regression analysis. The first three methods made it possible to significantly reduce the dimension of the problem, which did not affect the achievement of the goal for which this task was posed: significant measures of controlling influence on the team were shown. allowing to reduce the degree of emotional burnout of its participants.

  8. Плюснина Т.Ю., Воронова Е.Н., Гольцев В.Н., Погосян С.И., Яковлева О.В., Ризниченко Г.Ю., Рубин А.Б.
    Редуцированная модель фотосистемы II для оценки характеристик фотосинтетического аппарата по данным индукции флуоресценции
    Компьютерные исследования и моделирование, 2012, т. 4, № 4, с. 943-958

    Рассматривается подход для анализа некоторых биологических систем большой размерности, для которых справедливы предположения о квазиравновесных стадиях. Подход позволяет редуцировать детальные модели большой размерности и получить упрощенные модели, имеющие аналитическое решение. Это дает возможность достаточно точно воспроизводить экспериментальные кривые. Рассматриваемый подход был применен к детальной модели первичных процессов фотосинтеза в реакционном центре фотосистемы II. Упрощенная модель фотосистемы II хорошо описывает экспериментальных кривые индукции флуоресценции для высших и низших растений, полученные при разных интенсивностях света. Выведенные соотношения между переменными и параметрами детальной и упрощенной моделей, позволили использовать полученные оценки параметров упрощенной модели для описания динамики различных состояний фотосистемы II детальной модели.

    Plusnina T.Yu., Voronova E.N., Goltzev V.N., Pogosyan S.I., Yakovleva O.V., Riznichenko G.Yu., Rubin A.B.
    Reduced model of photosystem II and its use to evaluate the photosynthetic apparatus characteristics according to the fluorescence induction curves
    Computer Research and Modeling, 2012, v. 4, no. 4, pp. 943-958

    The approach for the analysis of some large-scale biological systems, on the base of quasiequilibrium stages is proposed. The approach allows us to reduce the detailed large-scaled models and obtain the simplified model with an analytical solution. This makes it possible to reproduce the experimental curves with a good accuracy. This approach has been applied to a detailed model of the primary processes of photosynthesis in the reaction center of photosystem II. The resulting simplified model of photosystem II describes the experimental fluorescence induction curves for higher and lower plants, obtained under different light intensities. Derived relationships between variables and parameters of detailed and simplified models, allow us to use parameters of simplified model to describe the dynamics of various states of photosystem II detailed model.

    Просмотров за год: 3. Цитирований: 2 (РИНЦ).
Страницы: « первая предыдущая

Журнал индексируется в Scopus

Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU

Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science

Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"

Международная Междисциплинарная Конференция МАТЕМАТИКА. КОМПЬЮТЕР. ОБРАЗОВАНИЕ.