Текущий выпуск Номер 5, 2024 Том 16

Все выпуски

Результаты поиска по 'factorization':
Найдено статей: 134
  1. Минкевич И.Г.
    Стехиометрический синтез метаболических путей
    Компьютерные исследования и моделирование, 2015, т. 7, № 6, с. 1241-1267

    Описан векторно-матричный подход для теоретического конструирования метаболических путей, превращающих химические соединения, а именно заданные субстраты, в желаемые продукты. Это математическая основа для генерирования альтернативных наборов биохимических реакций, выполняющих заданное превращение «субстрат–продукт». Эти пути получаются из применяемой базы данных по биохимическим реакциям и используют стехиометрию и ограничения, основанные на необратимости некоторых реакций. Показано, что число ограничений может быть заметно снижено благодаря существованию семейств параллельных ограничительных плоскостей в пространстве потоков через реакции. Совпадающие плоскости с противоположными направлениями ограничений приводят к существованию фиксированных значений потоков через реакции. Рассмотрена также задача исключения так называемых футильных циклов. Использование этих факторов позволяет существенно снизить сложность задачи и необходимые вычислительные ресурсы. Приведен пример альтернативных биохимических путей превращения глюкозы и глицерина в янтарную кислоту. Обнаружено, что для заданной пары «субстрат–продукт» многие пути имеют один и тот же баланс макроэргических связей.

    Minkevich I.G.
    Stoichiometric synthesis of metabolic pathways
    Computer Research and Modeling, 2015, v. 7, no. 6, pp. 1241-1267

    A vector-matrix approach to the theoretical design of metabolic pathways converting chemical compounds, viz., preset substrates, into desirable products is described. It is a mathematical basis for computer–aided generation of alternative biochemical reaction sets executing the given substrate–product conversion. The pathways are retrieved from the used database of biochemical reactions and utilize the reaction stoichiometry and restrictions based on the irreversibility of a part of them. Particular attention is paid to the analysis of restriction interrelations. It is shown that the number of restrictions can be notably reduced due to the existence of families of parallel restricting planes in the space of reaction flows. Coinciding planes of contradirectional restrictions result in the existence of fixed reaction flow values. The problem of exclusion of so called futile cycles is also considered. Utilization of these factors allows essential lowering of the problem complexity and necessary computational resources. An example of alternative biochemical pathway computation for conversion of glucose and glycerol into succinic acid is given. It is found that for a preset “substrate–product” pair many pathways have the same high-energy bond balance.

    Просмотров за год: 6. Цитирований: 3 (РИНЦ).
  2. Алёшин И.М., Малыгин И.В.
    Интерпретация результатов радиоволнового просвечивания методами машинного обучения
    Компьютерные исследования и моделирование, 2019, т. 11, № 4, с. 675-684

    В настоящий момент значительно возросла глубина работ по разведке кимберлитовых тел и рудных месторождений. Традиционные геологические методы поиска оказались неэффективными. Практически единственным прямым методом поиска является бурение системы скважин до глубин, которые обеспечивают доступ к вмещающим породам. Из-за высокой стоимости бурения возросла роль межскважинных методов. Они позволяют увеличить среднее расстояние между скважинами без существенного снижения вероятности пропуска кимберлитового или рудного тела. Метод радиоволнового просвечивания особенно эффективен при поиске объектов, отличающихся высокой контрастностью электропроводящих свойств. Физическую основу метода составляет зависимость распространения электромагнитной волны от проводящих свойств среды распространения. Источником и приемником электромагнитного излучения является электрический диполь. При измерениях они размещаются в соседних скважинах. Расстояние между источником и приемником известно. Поэтому, измерив величину уменьшения амплитуды электромагнитной волны при ее распространении между скважинами, можно оценить коэффициент поглощения среды. Породе с низким электрическим сопротивлением соответствует высокое поглощение радиоволн. Поэтому данные межскважинных измерений позволяют оценить эффективное электрическое сопротивление породы. Обычно источник и приемник синхронно погружаются в соседние скважины. Измерение величины амплитуды электрического поля в приемнике позволяет оценить среднее значение коэффициента затухания на линии, соединяющей источник и приемник. Измерения проводятся во время остановок, приблизительно каждые 5 м. Расстояние между остановками значительно меньше расстояния между соседними скважинами. Это приводит к значительной пространственной анизотропии в распределении данных. При проведении разведочного бурения скважины покрывают большую площадь. Наша цель состоит в построении трехмерной модели распределения электрических свойств межскважинного пространства на всем участке по результатом совокупности измерений. Анизотропия пространственного распределения измерений препятствует использованию стандартных методов геостатистики. Для построения трехмерной модели коэффициента затухания мы использовали один из методов теории машинного обучения — метод ближайших соседей. В этом методе коэффициент поглощения в заданной точке определяется его значениями для $k$ ближайших измерений. Число $k$ определяется из дополнительных соображений. Влияния анизотропии пространственного распределения измерений удается избежать, изменив пространственный масштаб в горизонтальном направлении. Масштабный множитель $\lambda$ является еще одним внешним параметром задачи. Для выбора значений параметров $k$ и $\lambda$ мы использовали коэффициент детерминации. Для демонстрации процедуры построения трехмерного образа коэффициента поглощения мы воспользовались данными межскважинного радиоволнового просвечивания, полученные на одном из участков в Якутии.

    Aleshin I.M., Malygin I.V.
    Machine learning interpretation of inter-well radiowave survey data
    Computer Research and Modeling, 2019, v. 11, no. 4, pp. 675-684

    Traditional geological search methods going to be ineffective. The exploration depth of kimberlite bodies and ore deposits has increased significantly. The only direct exploration method is to drill a system of wells to the depths that provide access to the enclosing rocks. Due to the high cost of drilling, the role of inter-well survey methods has increased. They allows to increase the mean well spacing without significantly reducing the kimberlite or ore body missing probability. The method of inter-well radio wave survey is effective to search for high contrast conductivity objects. The physics of the method based on the dependence of the electromagnetic wave propagation on the propagation medium conductivity. The source and receiver of electromagnetic radiation is an electric dipole, they are placed in adjacent wells. The distance between the source and receiver is known. Therefore we could estimate the medium absorption coefficient by the rate of radio wave amplitude decrease. Low electrical resistance rocks corresponds to high absorption of radio waves. The inter-well measurement data allows to estimate an effective electrical resistance (or conductivity) of the rock. Typically, the source and receiver are immersed in adjacent wells synchronously. The value of the of the electric field amplitude measured at the receiver site allows to estimate the average value of the attenuation coefficient on the line connecting the source and receiver. The measurements are taken during stops, approximately every 5 m. The distance between stops is much less than the distance between adjacent wells. This leads to significant spatial anisotropy in the measured data distribution. Drill grid covers a large area, and our point is to build a three-dimensional model of the distribution of the electrical properties of the inter-well space throughout the whole area. The anisotropy of spatial distribution makes hard to the use of standard geostatistics approach. To build a three-dimensional model of attenuation coefficient, we used one of machine learning theory methods, the method of nearest neighbors. In this method, the value of the absorption coefficient at a given point is calculated by $k$ nearest measurements. The number $k$ should be determined from additional reasons. The spatial distribution anisotropy effect can be reduced by changing the spatial scale in the horizontal direction. The scale factor $\lambda$ is one yet external parameter of the problem. To select the parameters $k$ and $\lambda$ values we used the determination coefficient. To demonstrate the absorption coefficient three-dimensional image construction we apply the procedure to the inter-well radio wave survey data. The data was obtained at one of the sites in Yakutia.

    Просмотров за год: 3.
  3. Семакин А.Н.
    Оценка масштабируемости программы расчета движения примесей в атмосфере средствами симулятора gem5
    Компьютерные исследования и моделирование, 2020, т. 12, № 4, с. 773-794

    В данной работе мы предлагаем новую эффективную программную реализацию алгоритма расчета трансконтинентального переноса примеси в атмосфере от естественного или антропогенного источника на адаптивной конечно-разностной сетке, концентрирующей свои узлы внутри переносимого облака примеси, где наблюдаются резкие изменения значений ее массовой доли, и максимально разрежающей узлы во всех остальных частях атмосферы, что позволяет минимизировать общее количество узлов. Особенностью реализации является представление адаптивной сетки в виде комбинации динамических (дерево, связный список) и статических (массив) структур данных. Такое представление сетки позволяет увеличить скорость выполнения расчетов в два раза по сравнению со стандартным подходом представления адаптивной сетки только через динамические структуры данных.

    Программа создавалась на компьютере с шестиядерным процессором. С помощью симулятора gem5, позволяющего моделировать работу различных компьютерных систем, была произведена оценка масштабируемости программы при переходе на большее число ядер (вплоть до 32) на нескольких моделях компьютерной системы вида «вычислительные ядра – кэш-память – оперативная память» с разной степенью детализации ее элементов. Отмечено существенное влияние состава компьютерной системы на степень масштабируемости исполняемой на ней программы: максимальное ускорение на 32-х ядрах при переходе от двухуровневого кэша к трехуровневому увеличивается с 14.2 до 22.2. Время выполнения программы на модели компьютера в gem5 превосходит время ее выполнения на реальном компьютере в 104–105 раз в зависимости от состава модели и составляет 1.5 часа для наиболее детализированной и сложной модели.

    Также в статье рассматриваются подробный порядок настройки симулятора gem5 и наиболее оптимальный с точки зрения временных затрат способ проведения симуляций, когда выполнение не представляющих интерес участков кода переносится на физический процессор компьютера, где работает gem5, а непосредственно внутри симулятора выполняется лишь исследуемый целевой кусок кода.

    In this work we have developed a new efficient program for the numerical simulation of 3D global chemical transport on an adaptive finite-difference grid which allows us to concentrate grid points in the regions where flow variables sharply change and coarsen the grid in the regions of their smooth behavior, which significantly minimizes the grid size. We represent the adaptive grid with a combination of several dynamic (tree, linked list) and static (array) data structures. The dynamic data structures are used for a grid reconstruction, and the calculations of the flow variables are based on the static data structures. The introduction of the static data structures allows us to speed up the program by a factor of 2 in comparison with the conventional approach to the grid representation with only dynamic data structures.

    We wrote and tested our program on a computer with 6 CPU cores. Using the computer microarchitecture simulator gem5, we estimated the scalability property of the program on a significantly greater number of cores (up to 32), using several models of a computer system with the design “computational cores – cache – main memory”. It has been shown that the microarchitecture of a computer system has a significant impact on the scalability property, i.e. the same program demonstrates different efficiency on different computer microarchitectures. For example, we have a speedup of 14.2 on a processor with 32 cores and 2 cache levels, but we have a speedup of 22.2 on a processor with 32 cores and 3 cache levels. The execution time of a program on a computer model in gem5 is 104–105 times greater than the execution time of the same program on a real computer and equals 1.5 hours for the most complex model.

    Also in this work we describe how to configure gem5 and how to perform simulations with gem5 in the most optimal way.

  4. Tran T.T., Pham C.T.
    A hybrid regularizers approach based model for restoring image corrupted by Poisson noise
    Компьютерные исследования и моделирование, 2021, т. 13, № 5, с. 965-978

    Image denoising is one of the fundamental problems in digital image processing. This problem usually refers to the reconstruction of an image from an observed image degraded by noise. There are many factors that cause this degradation such as transceiver equipment, or environmental influences, etc. In order to obtain higher quality images, many methods have been proposed for image denoising problem. Most image denoising method are based on total variation (TV) regularization to develop efficient algorithms for solving the related optimization problem. TV-based models have become a standard technique in image restoration with the ability to preserve image sharpness.

    In this paper, we focus on Poisson noise usually appearing in photon-counting devices. We propose an effective regularization model based on combination of first-order and fractional-order total variation for image reconstruction corrupted by Poisson noise. The proposed model allows us to eliminate noise while edge preserving. An efficient alternating minimization algorithm is employed to solve the optimization problem. Finally, provided numerical results show that our proposed model can preserve more details and get higher image visual quality than recent state-of-the-art methods.

    Tran T.T., Pham C.T.
    A hybrid regularizers approach based model for restoring image corrupted by Poisson noise
    Computer Research and Modeling, 2021, v. 13, no. 5, pp. 965-978

    Image denoising is one of the fundamental problems in digital image processing. This problem usually refers to the reconstruction of an image from an observed image degraded by noise. There are many factors that cause this degradation such as transceiver equipment, or environmental influences, etc. In order to obtain higher quality images, many methods have been proposed for image denoising problem. Most image denoising method are based on total variation (TV) regularization to develop efficient algorithms for solving the related optimization problem. TV-based models have become a standard technique in image restoration with the ability to preserve image sharpness.

    In this paper, we focus on Poisson noise usually appearing in photon-counting devices. We propose an effective regularization model based on combination of first-order and fractional-order total variation for image reconstruction corrupted by Poisson noise. The proposed model allows us to eliminate noise while edge preserving. An efficient alternating minimization algorithm is employed to solve the optimization problem. Finally, provided numerical results show that our proposed model can preserve more details and get higher image visual quality than recent state-of-the-art methods.

  5. Диденко Д.В., Балуев Д.Е., Маров И.В., Никаноров О.Л., Рогожкин С.А., Сорокин С.Е.
    Расчетное моделирование теплофизических процессов в высокотемпературном газоохлаждаемом реакторе
    Компьютерные исследования и моделирование, 2023, т. 15, № 4, с. 895-906

    В настоящее время в Российской Федерации разрабатывается высокотемпературный газоохлаждаемый реактор, являющийся составной частью атомной энерготехнологической станции, предназначенной для крупномасштабного производства водорода. При разработке проекта высокотемпературного газоохлаждаемого реактора одной из ключевых задач является расчетное обоснование принятой конструкции.

    В статье приводится методика расчетного анализа теплофизических характеристик высокотемпературного газоохлаждаемого реактора. Методика базируется на использовании современных вычислительных программ для электронно-вычислительных машин.

    Выполнение задачи теплофизического расчета реактора в целоми активной зоны в частности проводилось в три этапа. Первый этап заключается в обосновании нейтронно-физических характеристик активной зоны блочного типа в процессе выгорания с использованием программы MCU-HTR, основанной на методе Монте-Карло. Вторым и третьим этапами являются исследования течения теплоносителя и температурного состояния реактора и активной зоны в трехмерной постановке с требуемой степенью детализации с помощью программ FlowVision и ANSYS.

    Для проведения расчетных исследований были разработаны расчетные модели проточной части реактора и колонны тепловыделяющих сборок.

    По результатам расчетного моделирования оптимизированы конструкция опорных колонн и нейтронно-физические параметры тепловыделяющей сборки. Это привело к снижению суммарного гидравлического сопротивления реактора и максимальной температуры топливных элементов.

    Показана зависимость максимальной температуры топлива от величины коэффициентов неравномерности энерговыделения, определяемой расположением поглощающих стержней и компактов выгорающего поглотителя в тепловыделяющей сборке.

    Didenko D.V., Baluev D.E., Marov I.V., Nikanorov O.L., Rogozhkin S.A., Sorokin S.E.
    Computational modeling of the thermal and physical processes in the high-temperature gas-cooled reactor
    Computer Research and Modeling, 2023, v. 15, no. 4, pp. 895-906

    The development of a high-temperature gas-cooled reactor (HTGR) constituting a part of nuclear power-and-process station and intended for large-scale hydrogen production is now in progress in the Russian Federation. One of the key objectives in development of the high-temperature gas-cooled reactor is the computational justification of the accepted design.

    The article gives the procedure for the computational analysis of thermal and physical characteristics of the high-temperature gas-cooled reactor. The procedure is based on the use of the state-of-the-art codes for personal computer (PC).

    The objective of thermal and physical analysis of the reactor as a whole and of the core in particular was achieved in three stages. The idea of the first stage is to justify the neutron physical characteristics of the block-type core during burn-up with the use of the MCU-HTR code based on the Monte Carlo method. The second and the third stages are intended to study the coolant flow and the temperature condition of the reactor and the core in 3D with the required degree of detailing using the FlowVision and the ANSYS codes.

    For the purpose of carrying out the analytical studies the computational models of the reactor flow path and the fuel assembly column were developed.

    As per the results of the computational modeling the design of the support columns and the neutron physical characteristics of the fuel assembly were optimized. This results in the reduction of the total hydraulic resistance of the reactor and decrease of the maximum temperature of the fuel elements.

    The dependency of the maximum fuel temperature on the value of the power peaking factors determined by the arrangement of the absorber rods and of the compacts of burnable absorber in the fuel assembly is demonstrated.

  6. Лубашевский И.А., Лубашевский В.И.
    Модель динамической ловушки для описания человеческого контроля в рамках «стимул – реакция»
    Компьютерные исследования и моделирование, 2024, т. 16, № 1, с. 79-87

    В статье предлагается новая модель динамической ловушки типа «стимул – реакция», которая имитирует человеческий контроль динамических систем, где ограниченная рациональность человеческого сознания играет существенную роль. Детально рассматривается сценарий, в котором субъект модулирует контролируемую переменную в ответ на определенный стимул. В этом контексте ограниченная рациональность человеческого сознания проявляется в неопределенности восприятия стимула и последующих действий субъекта. Модель предполагает, что когда интенсивность стимула падает ниже (размытого) порога восприятия стимула, субъект приостанавливает управление и поддерживает контролируемую переменную вблизи нуля с точностью, определяемую неопределенностью ее управления. Когда интенсивность стимула превышает неопределенность восприятия и становится доступной человеческому сознания, испытуемый активирует контроль. Тем самым, динамику системы можно представить как чередующуюся последовательность пассивного и активного режимов управления с вероятностными переходами между ними. Более того, ожидается, что эти переходы проявляют гистерезис из-за инерции принятия решений.

    В общем случае пассивный и активный режимы базируются на различных механизмах, что является проблемой для создания эффективных алгоритмов их численного моделирования. Предлагаемая модель преодолевает эту проблему за счет введения динамической ловушки типа «стимул – реакция», имеющей сложную структуру. Область динамической ловушки включает две подобласти: область стагнации динамики системы и область гистерезиса. Модель основывается на формализме стохастических дифференциальных уравнений и описывает как вероятностные переходы между пассивным и активным режимами управления, так и внутреннюю динамику этих режимов в рамках единого представления. Предложенная модель воспроизводит ожидаемые свойства этих режимов управления, вероятностные переходы между ними и гистерезис вблизи порога восприятия. Кроме того, в предельном случае модель оказывается способной имитировать человеческий контроль, когда (1) активный режим представляет собой реализацию «разомкнутого» типа для локально запланированных действий и (2) активация контроля возникает только тогда, когда интенсивность стимула существенно возрастает и риск потери контроля системы становится существенным.

    Lubashevsky I.A., Lubashevskiy V.I.
    Dynamical trap model for stimulus – response dynamics of human control
    Computer Research and Modeling, 2024, v. 16, no. 1, pp. 79-87

    We present a novel model for the dynamical trap of the stimulus – response type that mimics human control over dynamic systems when the bounded capacity of human cognition is a crucial factor. Our focus lies on scenarios where the subject modulates a control variable in response to a certain stimulus. In this context, the bounded capacity of human cognition manifests in the uncertainty of stimulus perception and the subsequent actions of the subject. The model suggests that when the stimulus intensity falls below the (blurred) threshold of stimulus perception, the subject suspends the control and maintains the control variable near zero with accuracy determined by the control uncertainty. As the stimulus intensity grows above the perception uncertainty and becomes accessible to human cognition, the subject activates control. Consequently, the system dynamics can be conceptualized as an alternating sequence of passive and active modes of control with probabilistic transitions between them. Moreover, these transitions are expected to display hysteresis due to decision-making inertia.

    Generally, the passive and active modes of human control are governed by different mechanisms, posing challenges in developing efficient algorithms for their description and numerical simulation. The proposed model overcomes this problem by introducing the dynamical trap of the stimulus-response type, which has a complex structure. The dynamical trap region includes two subregions: the stagnation region and the hysteresis region. The model is based on the formalism of stochastic differential equations, capturing both probabilistic transitions between control suspension and activation as well as the internal dynamics of these modes within a unified framework. It reproduces the expected properties in control suspension and activation, probabilistic transitions between them, and hysteresis near the perception threshold. Additionally, in a limiting case, the model demonstrates the capability of mimicking a similar subject’s behavior when (1) the active mode represents an open-loop implementation of locally planned actions and (2) the control activation occurs only when the stimulus intensity grows substantially and the risk of the subject losing the control over the system dynamics becomes essential.

  7. Мезенцев Ю.А., Разумникова О.М., Эстрайх И.В., Тарасова И.В., Трубникова О.А.
    Задачи и алгоритмы оптимальной кластеризации многомерных объектов по множеству разнородных показателей и их приложения в медицине
    Компьютерные исследования и моделирование, 2024, т. 16, № 3, с. 673-693

    Работа посвящена описанию авторских формальных постановок задачи кластеризации при заданном числе кластеров, алгоритмам их решения, а также результатам применения этого инструментария в медицине.

    Решение сформулированных задач точными алгоритмами реализаций даже относительно невысоких размерностей до выполнения условий оптимальности невозможно за сколько-нибудь рациональное время по причине их принадлежности к классу NP.

    В связи с этим нами предложен гибридный алгоритм, сочетающий преимущества точных методов на базе кластеризации в парных расстояниях на начальном этапе с быстродействием методов решения упрощенных задач разбиения по центрам кластеров на завершающем этапе. Для развития данного направления разработан последовательный гибридный алгоритм кластеризации с использованием случайного поиска в парадигме роевого интеллекта. В статье приведено его описание и представлены результаты расчетов прикладных задач кластеризации.

    Для выяснения эффективности разработанного инструментария оптимальной кластеризации многомерных объектов по множеству разнородных показателей был выполнен ряд вычислительных экспериментов с использованием массивов данных, включающих социально-демографические, клинико-анамнестические, электроэнцефалографические и психометрические данные когнитивного статуса пациентов кардиологической клиники. Получено эксперимен- тальное доказательство эффективности применения алгоритмов локального поиска в парадигме роевого интеллекта в рамках гибридного алгоритма при решении задач оптимальной кластеризации. Результаты вычислений свидетельствуют о фактическом разрешении основной проблемы применения аппарата дискретной оптимизации — ограничения доступных размерностей реализаций задач. Нами показано, что эта проблема снимается при сохранении приемлемой близости результатов кластеризации к оптимальным.

    Прикладное значение полученных результатов кластеризации обусловлено также тем, что разработанный инструментарий оптимальной кластеризации дополнен оценкой стабильности сформированных кластеров, что позволяет к известным факторам (наличие стеноза или старший возраст) дополнительно выделить тех пациентов, когнитивные ресурсы которых оказываются недостаточны, чтобы преодолеть влияние операционной анестезии, вследствие чего отмечается однонаправленный эффект послеоперационного ухудшения показателей сложной зрительно-моторной реакции, внимания и памяти. Этот эффект свидетельствует о возможности дифференцированно классифицировать пациентов с использованием предлагаемого инструментария.

    Mezentsev Y.A., Razumnikova O.M., Estraykh I.V., Tarasova I.V., Trubnikova O.A.
    Tasks and algorithms for optimal clustering of multidimensional objects by a variety of heterogeneous indicators and their applications in medicine
    Computer Research and Modeling, 2024, v. 16, no. 3, pp. 673-693

    The work is devoted to the description of the author’s formal statements of the clustering problem for a given number of clusters, algorithms for their solution, as well as the results of using this toolkit in medicine.

    The solution of the formulated problems by exact algorithms of implementations of even relatively low dimensions before proving optimality is impossible in a finite time due to their belonging to the NP class.

    In this regard, we have proposed a hybrid algorithm that combines the advantages of precise methods based on clustering in paired distances at the initial stage with the speed of methods for solving simplified problems of splitting by cluster centers at the final stage. In the development of this direction, a sequential hybrid clustering algorithm using random search in the paradigm of swarm intelligence has been developed. The article describes it and presents the results of calculations of applied clustering problems.

    To determine the effectiveness of the developed tools for optimal clustering of multidimensional objects according to a variety of heterogeneous indicators, a number of computational experiments were performed using data sets including socio-demographic, clinical anamnestic, electroencephalographic and psychometric data on the cognitive status of patients of the cardiology clinic. An experimental proof of the effectiveness of using local search algorithms in the paradigm of swarm intelligence within the framework of a hybrid algorithm for solving optimal clustering problems has been obtained.

    The results of the calculations indicate the actual resolution of the main problem of using the discrete optimization apparatus — limiting the available dimensions of task implementations. We have shown that this problem is eliminated while maintaining an acceptable proximity of the clustering results to the optimal ones. The applied significance of the obtained clustering results is also due to the fact that the developed optimal clustering toolkit is supplemented by an assessment of the stability of the formed clusters, which allows for known factors (the presence of stenosis or older age) to additionally identify those patients whose cognitive resources are insufficient to overcome the influence of surgical anesthesia, as a result of which there is a unidirectional effect of postoperative deterioration of complex visual-motor reaction, attention and memory. This effect indicates the possibility of differentiating the classification of patients using the proposed tools.

  8. Брацун Д.А., Захаров А.П.
    Моделирование пространственно-временной динамики циркадианных ритмов Neurospora crassa
    Компьютерные исследования и моделирование, 2011, т. 3, № 2, с. 191-213

    В работе предложена новая модель циркадианных колебаний нейроспоры, которая описывает пространственно-временную динамику белков, ответственных за механизм биоритмов. Модель основывается на нелинейном взаимодействии белков FRQ и WCC, кодируемых генами frequency и white collar, и включает в себя как положительную, так и отрицательную петлю обратной связи. Главным элементом механизма колебаний является эффект запаздывания в биохимических реакциях транскрипции генов. Показано, что модель воспроизводит такие свойства циркадианных колебаний нейроспоры как захват частоты под действием внешнего периодического освещения, сброс фазы биоритмов при воздействии импульса света, устойчивость механизма колебаний по отношению к случайным флуктуациям и т. д. Исследованы волновые структуры, возникающие в ходе пространственной эволюции системы. Показано, что волны синхронизации биоритмов среды возникают под воздействием базального транскрипционного фактора.

    Bratsun D.A., Zakharov A.P.
    Modelling spatio-temporal dynamics of circadian rythms in Neurospora crassa
    Computer Research and Modeling, 2011, v. 3, no. 2, pp. 191-213

    We derive a new model of circadian oscillations in Neurospora crassa, which is suitable to analyze both temporal and spatial dynamics of proteins responsible for mechanism of rythms. The model is based on the non-linear interplay between proteins FRQ and WCC which are products of transcription of frequency and white collar genes forming a feedback loop comprised both positive and negative elements. The main component of oscillations mechanism is supposed to be time-delay in biochemical reactions of transcription. We show that the model accounts for various features observed in Neurospora’s experiments such as entrainment by light cycles, phase shift under light pulse, robustness to action of fluctuations and so on. Wave patterns excited during spatial development of the system are studied. It is shown that the wave of synchronization of biorythms arises under basal transcription factors.

    Просмотров за год: 6. Цитирований: 20 (РИНЦ).
  9. Жмуров А.А., Барсегов В.А., Трифонов С.В., Холодов Я.А., Холодов А.С.
    Эффективные генераторы псевдослучайных чисел при молекулярном моделировании на видеокартах
    Компьютерные исследования и моделирование, 2011, т. 3, № 3, с. 287-308

    Динамика Ланжевена, метод Монте-Карло и моделирование молекулярной динамики в неявном растворителе требуют больших массивов случайных чисел на каждом шаге расчета. Мы исследовали два подхода в реализации генераторов на графических процессорах. Первый реализует последовательный алгоритм генератора на каждом потоке в отдельности. Второй основан на возможности взаимодействия между потоками и реализует общий алгоритм на всех потоках в целом. Мы покажем использование этих подходов на примере алгоритмов Ran 2, Hybrid Taus и Lagged Fibonacci. Для проверки случайности полученных чисел мы использовали разработанные генераторы при моделировании динамики Ланжевена N независимых гармонических осцилляторов в термостате. Это позволило нам оценить статистические характеристики генераторов. Мы также исследовали производительность, использование памяти и ускорение, получаемое при переносе алгоритма с центрального на графический процессор.

    Zhmurov A.A., Barsegov V.A., Trifonov S.V., Kholodov Y.A., Kholodov A.S.
    Efficient Pseudorandom number generators for biomolecular simulations on graphics processors
    Computer Research and Modeling, 2011, v. 3, no. 3, pp. 287-308

    Langevin Dynamics, Monte Carlo, and all-atom Molecular Dynamics simulations in implicit solvent require a reliable source of pseudorandom numbers generated at each step of calculation. We present the two main approaches for implementation of pseudorandom number generators on a GPU. In the first approach, inherent in CPU-based calculations, one PRNG produces a stream of pseudorandom numbers in each thread of execution, whereas the second approach builds on the ability of different threads to communicate, thus, sharing random seeds across the entire device. We exemplify the use of these approaches through the development of Ran2, Hybrid Taus, and Lagged Fibonacci algorithms. As an application-based test of randomness, we carry out LD simulations of N independent harmonic oscillators coupled to a stochastic thermostat. This model allows us to assess statistical quality of pseudorandom numbers. We also profile performance of these generators in terms of the computational time, memory usage, and the speedup factor (CPU/GPU time).

    Просмотров за год: 11. Цитирований: 2 (РИНЦ).
  10. Кутовский Н.А., Нечаевский А.В., Ососков Г.А., Пряхина Д.И., Трофимов В.В.
    Моделирование межпроцессорного взаимодействия при выполнении MPI-приложений в облаке
    Компьютерные исследования и моделирование, 2017, т. 9, № 6, с. 955-963

    В Лаборатории информационных технологий (ЛИТ) Объединенного института ядерных исследований (ОИЯИ) планируется создание облачного центра параллельных вычислений, что позволит существенно повысить эффективность выполнения численных расчетов и ускорить получение новых физически значимых результатов за счет более рационального использования вычислительных ресурсов. Для оптимизации схемы параллельных вычислений в облачной среде эту схему необходимо протестировать при различных сочетаниях параметров оборудования (количества и частоты процессоров, уровней распараллеливания, пропускной способности коммуникационной сети и ее латентности). В качестве тестовой была выбрана весьма актуальная задача параллельных вычислений длинных джозефсоновских переходов (ДДП) с использованием технологии MPI. Проблемы оценки влияния вышеуказанных факторов вычислительной среды на скорость параллельных вычислений тестовой задачи было предложено решать методом имитационного моделирования, с использованием разработанной в ЛИТ моделирующей программы SyMSim.

    Работы, выполненные по имитационному моделированию расчетов ДДП в облачной среде с учетом межпроцессорных соединений, позволяют пользователям без проведения серии тестовых запусков в реальной компьютерной обстановке подобрать оптимальное количество процессоров при известном типе сети, характеризуемой пропускной способностью и латентностью. Это может существенно сэкономить вычислительное время на счетных ресурсах, высвободив его для решения реальных задач. Основные параметры модели были получены по результатам вычислительного эксперимента, проведенного на специальном облачном полигоне для MPI-задач из 10 виртуальных машин, взаимодействующих между собой через Ethernet-сеть с пропускной способностью 10 Гбит/с. Вычислительные эксперименты показали, что чистое время вычислений спадает обратно пропорционально числу процессоров, но существенно зависит от пропускной способности сети. Сравнение результатов, полученных эмпирическим путем, с результатами имитационного моделирования показало, что имитационная модель корректно моделирует параллельные расчеты, выполненные с использованием технологии MPI, и подтвердило нашу рекомендацию, что для быстрого счета задач такого класса надо одновременно с увеличением числа процессоров увеличивать пропускную способность сети. По результатам моделирования удалось вывести эмпирическую аналитическую формулу, выражающую зависимость времени расчета от числа процессоров при фиксированной конфигурации системы. Полученная формула может применяться и для других подобных исследований, но требует дополнительных тестов по определению значений переменных.

    Kutovskiy N.A., Nechaevskiy A.V., Ososkov G.A., Pryahina D.I., Trofimov V.V.
    Simulation of interprocessor interactions for MPI-applications in the cloud infrastructure
    Computer Research and Modeling, 2017, v. 9, no. 6, pp. 955-963

    А new cloud center of parallel computing is to be created in the Laboratory of Information Technologies (LIT) of the Joint Institute for Nuclear Research JINR) what is expected to improve significantly the efficiency of numerical calculations and expedite the receipt of new physically meaningful results due to the more rational use of computing resources. To optimize a scheme of parallel computations at a cloud environment it is necessary to test this scheme for various combinations of equipment parameters (processor speed and numbers, throughput оf а communication network etc). As a test problem, the parallel MPI algorithm for calculations of the long Josephson junctions (LDJ) is chosen. Problems of evaluating the impact of abovementioned factors of computing mean on the computing speed of the test problem are solved by simulation with the simulation program SyMSim developed in LIT.

    The simulation of the LDJ calculations in the cloud environment enable users without a series of test to find the optimal number of CPUs with a certain type of network run the calculations in a real computer environment. This can save significant computational time in countable resources. The main parameters of the model were obtained from the results of the computational experiment conducted on a special cloud-based testbed. Computational experiments showed that the pure computation time decreases in inverse proportion to the number of processors, but depends significantly on network bandwidth. Comparison of results obtained empirically with the results of simulation showed that the simulation model correctly simulates the parallel calculations performed using the MPI-technology. Besides it confirms our recommendation: for fast calculations of this type it is needed to increase both, — the number of CPUs and the network throughput at the same time. The simulation results allow also to invent an empirical analytical formula expressing the dependence of calculation time by the number of processors for a fixed system configuration. The obtained formula can be applied to other similar studies, but requires additional tests to determine the values of variables.

    Просмотров за год: 10. Цитирований: 1 (РИНЦ).
Страницы: « первая предыдущая следующая последняя »

Журнал индексируется в Scopus

Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU

Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science

Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"

Международная Междисциплинарная Конференция МАТЕМАТИКА. КОМПЬЮТЕР. ОБРАЗОВАНИЕ.