Текущий выпуск Номер 2, 2024 Том 16

Все выпуски

Результаты поиска по 'the generalized solution':
Найдено статей: 64
  1. Крат Ю.Г., Потапов И.И.
    Устойчивость дна в напорных каналах
    Компьютерные исследования и моделирование, 2015, т. 7, № 5, с. 1061-1068

    В работе на основе предложенной ранее русловой модели решена одномерная задача устойчивости песчаного дна напорного канала. Особенностью исследуемой задачи является используемое оригинальное уравнение русловых деформаций, учитывающее влияние физико-механических и гранулометрических характеристик донного материала и неровности донной поверхности при русловом анализе. Еще одной особенностью рассматриваемой задачи является учет влияния не только придонного касательного, но и нормального напряжения при изучении русловой неустойчивости. Из решения задачи устойчивости песчаного дна для напорного канала получена аналитическая зависимость, определяющая длину волны для быстрорастущих донных возмущений. Выполнен анализ полученной аналитической зависимости, показано, что она обобщает ряд известных эмпирических формул: Коулмана, Шуляка и Бэгнольда. Структура полученной аналитической зависимости указывает на существование двух гидродинамических режимов, характеризуемых числом Фруда, при которых рост донных возмущений может сильно или слабо зависеть от числа Фруда. Учитывая природную стохастичность процесса движения донных волн и наличие области определения решения со слабой зависимостью от чисел Фруда, можно сделать вывод о том, что экспериментальное наблюдение за процессом развития движения донных волн в данной области должно приводить к получению данных, имеющих существенную дисперсию, что и происходит в действительности.

    Krat Y.G., Potapov I.I.
    Bottom stability in closed conduits
    Computer Research and Modeling, 2015, v. 7, no. 5, pp. 1061-1068

    In this paper on the basis of the riverbed model proposed earlier the one-dimensional stability problem of closed flow channel with sandy bed is solved. The feature of the investigated problem is used original equation of riverbed deformations, which takes into account the influence of mechanical and granulometric bed material characteristics and the bed slope when riverbed analyzing. Another feature of the discussed problem is the consideration together with shear stress influence normal stress influence when investigating the riverbed instability. The analytical dependence determined the wave length of fast-growing bed perturbations is obtained from the solution of the sandy bed stability problem for closed flow channel. The analysis of the obtained analytical dependence is performed. It is shown that the obtained dependence generalizes the row of well-known empirical formulas: Coleman, Shulyak and Bagnold. The structure of the obtained analytical dependence denotes the existence of two hydrodynamic regimes characterized by the Froude number, at which the bed perturbations growth can strongly or weakly depend on the Froude number. Considering a natural stochasticity of the waves movement process and the presence of a definition domain of the solution with a weak dependence on the Froude numbers it can be concluded that the experimental observation of the of the bed waves movement development should lead to the data acquisition with a significant dispersion and it occurs in reality.

    Просмотров за год: 1. Цитирований: 2 (РИНЦ).
  2. Коганов А.В.
    Тесты проверки параллельной организации логических вычислений, основанные на алгебре и автоматах
    Компьютерные исследования и моделирование, 2017, т. 9, № 4, с. 621-638

    Работа продолжает опубликованные ранее исследования по способности человека повышать производительность обработки информации при параллельном выполнении нескольких логических операций заданного вида. В статье предлагаются новые тесты, позволяющие выявлять указанную способность человеческого мозга в серии предъявлений. Производительность человека определяется средним количеством информации, которую обрабатывает человек в единицу времени, решая серию тестовых задач. Сложность задачи в каждой серии тестов определяется средним количеством логических операций, которые надо выполнить для решения с учетом статистических свойств серии задач. Тесты строятся таким образом, чтобы сложность контролировалась. Изучается зависимость производительности испытуемого от сложности задач в серии. Если человек использует последовательный алгоритм решения и не меняет скорости выполнения логических операций, то производительность не зависит от сложности и среднее время решения задачи в серии примерно пропорционально сложности. Если скорость выполнения операций растет с повышением сложности (растет концентрация внимания), то увеличивается и производительность. Тот же эффект возникает, если человек при достаточно высокой сложности задачи начинает выполнять несколько логических операций одновременно (параллельные вычисления). Для контроля причин роста производительности строятся контрольные тесты на том же классе логических операций, в которых параллельная организация счета малоэффективна. Если рост производительности наблюдается как на основных, так и на контрольных тестах, то причиной роста производительности является увеличение быстродействия. Если же на контрольных тестах нет роста производительности, а на основных тестах рост имеется, то причиной роста является параллельный счет. С точки зрения теории операций это означает использование одновременной работы нескольких процессоров, каждый из которых в единицу времени перерабатывает не более некоторого известного числа элементов входных данных или промежуточных результатов (производительность процессора). В данной статье предлагается система тестов, в которой используется аппарат универсальных алгебр и теории автоматов. Работа является продолжением цикла работ по исследованию способностей человека к параллельным вычислениям. Ранее использованные тесты в экспериментах показали эффективность методики. Основные предыдущие публикации на эту тему приведены в списке литературы. Задачи в новых предлагаемых тестах можно описать как вычисление результата серии последовательных однотипных операций из некоторой специальной алгебры. Если операция ассоциативная, то с помощью удачной группировки вычислений можно эффективно применить параллельный счет. Анализируется зависимость времени решения задачи от сложности. Чтобы выявлять ситуации, когда человек увеличивает быстродействие одного процессора по мере роста сложности, требуется предъявить серии задач с похожими операциями, но в неассоциативной алгебре. Для таких задач параллельный счет малоэффективен с точки зрения отношения прироста производительности к увеличению числа процессоров. Так формируется контрольная группа тестов. В статье рассмотрен еще один класс тестов, основанных на расчете траектории состояния заданного формального автомата при задании входной последовательности. Исследован специальный класс автоматов (реле), конструкция которых влияет на эффективность параллельного расчета финального состояния. Для всех тестов оценивается эффективность параллельного счета. Эксперименты с новыми тестами не входят в данную статью.

    We build new tests which permit to increase the human capacity for the information processing by the parallel execution of the several logic operations of prescribed type. For checking of the causes of the capacity increasing we develop the check tests on the same logic operations class in which the parallel organization of the calculations is low-effectively. We use the apparatus of the universal algebra and automat theory. This article is the extension of the cycle of the work, which investigates the human capacity for the parallel calculations. The general publications on this theme content in the references. The tasks in the described tests may to define in the form of the calculation of the result in the sequence of the same type operations from some algebra. If this operation is associative then the parallel calculation is effectively by successful grouping of process. In Theory of operations that is the using the simultaneous work several processors. Each processor transforms in the time unit the certain known number of the elements of the input date or the intermediate results (the processor productivity). Now it is not known what kind elements of date are using by the brain for the logical or mathematical calculation, and how many elements are treating in the time units. Therefore the test contains the sequence of the presentations of the tasks with different numbers of logical operations in the fixed alphabet. That is the measure of the complexity for the task. The analysis of the depending of the time for the task solution from the complexity gives the possible to estimate the processor productivity and the form of the calculate organization. For the sequence calculations only one processor is working, and the time of solution is a line function of complexity. If the new processors begin to work in parallel when the complexities of the task increase than the depending of the solution time from complexity is represented by the curve which is convex at the bottom. For the detection of situation when the man increases the speed of the single processor under the condition of the increasing complexity we use the task series with similar operations but in the no associate algebra. In such tasks the parallel calculation is little affectivity in the sense of the increasing efficiency by the increasing the number of processors. That is the check set of the tests. In article we consider still one class of the tests, which are based on the calculation of the trajectory of the formal automat state if the input sequence is determined. We investigate the special class of automats (relay) for which the construction affect on the affectivity of the parallel calculations of the final automat state. For all tests we estimate the affectivity of the parallel calculation. This article do not contained the experiment results.

    Просмотров за год: 14. Цитирований: 1 (РИНЦ).
  3. Иванов А.М., Хохлов Н.И.
    Параллельная реализация сеточно-характеристического метода в случае явного выделения контактных границ
    Компьютерные исследования и моделирование, 2018, т. 10, № 5, с. 667-678

    В работе рассматривается применение технологии Message Passing Interface (MPI) для распараллеливания программного алгоритма, основанного на сеточно-характеристическом методе, применительно к численному решению уравнения линейной теории упругости. Данный алгоритм позволяет численно моделировать распространение динамических волновых возмущений в твердых деформируемых телах. К такого рода задачам относится решение прямой задачи распространения сейсмических волн, что представляет интерес в сейсмике и геофизике. Во снове решателя лежит сеточно-характеристический метод. В работе предложен способ уменьшения времени взаимодействия между процессами MPI в течение расчета. Это необходимо для того, чтобы можно было производить моделирование в сложных постановках, при этом сохраняя высокую эффективность параллелизма даже при большом количестве процессов. Решение проблемы эффективного взаимодействия представляет большой интерес, когда в расчете используется несколько расчетных сеток с произвольной геометрией контактов между ними. Сложность данной задачи возрастает, если допускается независимое распределение узлов расчетных сеток между процессами. В работе сформулирован обобщенный подход для обработки контактных условий в терминах переинтерполяции узлов из заданного участка одной сетки в определенную область второй сетки. Предложен эффективный способ распараллеливания и установления эффективных межпроцессорных коммуникаций. Приведены результаты работы реализованного программного кода: получены волновые поля и сейсмограммы как для 2D-, так и для 3D-постановок. Показано, что данный алгоритм может быть реализован в том числе на криволинейных расчетных сетках. Рассмотренные постановки демонстрируют возможность проведения расчета с учетом топографии среды и криволинейных контактов между слоями. Это позволяет получать более точные результаты, чем при расчете только с использованием декартовых сеток. Полученная эффективность распараллеливания — практически 100% вплоть до 4096 процессов (за основу отсчета взята версия, запущенная на 128 процессах). Дале наблюдается ожидаемое постепенное снижение эффективности. Скорость спада не велика, на 16384 процессах удается сохранить 80%-ную эффективность.

    Ivanov A.M., Khokhlov N.I.
    Parallel implementation of the grid-characteristic method in the case of explicit contact boundaries
    Computer Research and Modeling, 2018, v. 10, no. 5, pp. 667-678

    We consider an application of the Message Passing Interface (MPI) technology for parallelization of the program code which solves equation of the linear elasticity theory. The solution of this equation describes the propagation of elastic waves in demormable rigid bodies. The solution of such direct problem of seismic wave propagation is of interest in seismics and geophysics. Our implementation of solver uses grid-characteristic method to make simulations. We consider technique to reduce time of communication between MPI processes during the simulation. This is important when it is necessary to conduct modeling in complex problem formulations, and still maintain the high level of parallelism effectiveness, even when thousands of processes are used. A solution of the problem of effective communication is extremely important when several computational grids with arbirtrary geometry of contacts between them are used in the calculation. The complexity of this task increases if an independent distribution of the grid nodes between processes is allowed. In this paper, a generalized approach is developed for processing contact conditions in terms of nodes reinterpolation from a given section of one grid to a certain area of the second grid. An efficient way of parallelization and establishing effective interprocess communications is proposed. For provided example problems we provide wave fileds and seismograms for both 2D and 3D formulations. It is shown that the algorithm can be realized both on Cartesian and on structured (curvilinear) computational grids. The considered statements demonstrate the possibility of carrying out calculations taking into account the surface topographies and curvilinear geometry of curvilinear contacts between the geological layers. Application of curvilinear grids allows to obtain more accurate results than when calculating only using Cartesian grids. The resulting parallelization efficiency is almost 100% up to 4096 processes (we used 128 processes as a basis to find efficiency). With number of processes larger than 4096, an expected gradual decrease in efficiency is observed. The rate of decline is not great, so at 16384 processes the parallelization efficiency remains at 80%.

    Просмотров за год: 18.
  4. Фомин А.А., Фомина Л.Н.
    Влияние силы плавучести на смешанную конвекцию жидкости переменной плотности в квадратной каверне с подвижной крышкой
    Компьютерные исследования и моделирование, 2020, т. 12, № 3, с. 575-595

    В работе рассматривается задача стационарной смешанной конвекции и теплообмена вязкой теплопроводной жидкости в плоской квадратной каверне с подвижной верхней крышкой. Нагретая верхняя стенка каверны имеет температуру $T_{\mathrm{H}}$, холодная нижняя — $T_\mathrm{0}$ $(T_\mathrm{H} > T_\mathrm{0})$, а боковые стенки каверны теплоизолированы. Особенностью задачи является тот факт, что плотность жидкости может принимать произвольные значения в зависимости от величины перегрева крышки каверны. Математическая постановка включает в себя уравнения Навье–Стокса в переменных «скорость–давление» и баланса тепла, сформулированные с учетом несжимаемости течения жидкости и воздействия объемной силы плавучести. Разностная аппроксимация исходных дифференциальных уравнений выполнена методом контрольного объема. Численные решения задачи получены на сетке $501 \times 501$ для следующих значений параметров подобия: число Прандтля Pr = 0.70; число Рейнольдса Re = 100, 1000; число Ричардсона Ri = 0.1, 1, 10 и относительный перегрев верхней стенки $(T_\mathrm{H} − T_\mathrm{0})/T_\mathrm{0} = 0, 1, 2, 3$. Достоверность полученных результатов подтверждена их сравнением с литературными данными. Представлены подробные картины течения в виде линий тока и изотерм перегрева потока. Показано, что увеличение значения числа Ричардсона (рост влияния силы плавучести) приводит к принципиальному изменению структуры течения жидкости. Также установлено, что учет переменности плотности жидкости приводит к ослаблению влияния роста Ri на трансформацию структуры течения. Это связано с тем, что изменение плотности в замкнутом объеме всегда приводит к возникновению зон с отрицательной плавучестью. Как следствие, конкуренция положительных и отрицательных объемных сил приводит в целом к ослаблению эффекта плавучести. Также проанализировано поведение коэффициентов теплоотдачи (числа Нуссельта) и трения вдоль нижней стенки каверны в зависимости от параметров задачи. Выявлено, что влияние переменности плотности на эти коэффициенты тем больше, чем большие значения при прочих равных условиях принимает число Ричардсона.

    Fomin A.A., Fomina L.N.
    Effect of buoyancy force on mixed convection of a variable density fluid in a square lid-driven cavity
    Computer Research and Modeling, 2020, v. 12, no. 3, pp. 575-595

    The paper considers the problem of stationary mixed convection and heat transfer of a viscous heatconducting fluid in a plane square lid-driven cavity. The hot top cover of the cavity has any temperature $T_\mathrm{H}$ and cold bottom wall has temperature $T_\mathrm{0} (T_\mathrm{H} > T_\mathrm{0})$, whereas in contrast the side walls are insulated. The fact that the fluid density can take arbitrary values depending on the amount of overheating of the cavity cover is a feature of the problem. The mathematical formulation includes the Navier–Stokes equations in the ’velocity–pressure’ variables and the heat balance equation which take into account the incompressibility of the fluid flow and the influence of volumetric buoyancy force. The difference approximation of the original differential equations has been performed by the control volume method. Numerical solutions of the problem have been obtained on the $501 \times 501$ grid for the following values of similarity parameters: Prandtl number Pr = 0.70; Reynolds number Re = 100 and 1000; Richardson number Ri = 0.1, 1, and 10; and the relative cover overheating $(T_\mathrm{H}-T_\mathrm{0})/T_\mathrm{0} = 0, 1, 2, 3$. Detailed flow patterns in the form of streamlines and isotherms of relative overheating of the fluid flow are given in the work. It is shown that the increase in the value of the Richardson number (the increase in the influence of buoyancy force) leads to a fundamental change in the structure of the liquid stream. It is also found out that taking into account the variability of the liquid density leads to weakening of the influence of Ri growth on the transformation of the flow structure. The change in density in a closed volume is the cause of this weakening, since it always leads to the existence of zones with negative buoyancy in the presence of a volumetric force. As a consequence, the competition of positive and negative volumetric forces leads in general to weakening of the buoyancy effect. The behaviors of heat exchange coefficient (Nusselt number) and coefficient of friction along the bottom wall of the cavity depending on the parameters of the problem are also analyzed. It is revealed that the greater the values of the Richardson number are, the greater, ceteris paribus, the influence of density variation on these coefficients is.

  5. Божко А.Н.
    Гиперграфовый подход в декомпозиции сложных технических систем
    Компьютерные исследования и моделирование, 2020, т. 12, № 5, с. 1007-1022

    В статье рассматривается математическая модель декомпозиции сложного изделия на сборочные единицы. Это важная инженерная задача, которая влияет на организацию дискретного производства и его и оперативное управление. Приведен обзор современных подходов к математическому моделированию и автоматизированному синтезу декомпозиций. В них математическими моделями структур технических систем служат графы, сети, матрицы и др. Эти модели описывают механическую структуру как бинарное отношение на множестве элементов системы. Геометрическая координация и целостность машин и механических приборов в процессе изготовления достигаются при помощи базирования. В общем случае базирование может осуществляться относительно нескольких элементов одновременно. Поэтому оно представляет собой отношение переменной местности, которое не может быть корректно описано в терминах бинарных математических структур. Описана новая гиперграфовая модель механической структуры технической системы. Эта модель позволяет дать точную и лаконичную формализацию сборочных операций и процессов. Рассматриваются сборочные операции, которые выполняются двумя рабочими органами и заключаются в реализации механических связей. Такие операции называются когерентными и секвенциальными. Это преобладающий тип операций в современной промышленной практике. Показано, что математическим описанием такой операции является нормальное стягивание ребра гиперграфа. Последовательность стягиваний, трансформирующая гиперграф в точку, представляет собой математическую модель сборочного процесса. Приведены доказанные автором две важные теоремы о свойствах стягиваемых гиперграфов и подграфов. Введено понятие $s$-гиперграфа. $S$-гиперграфы являются корректными математическими моделями механических структур любых собираемых технических систем. Декомпозиция изделия на сборочные единицы поставлена как разрезание $s$-гиперграфа на $s$-подграфы. Задача разрезания описана в терминах дискретного математического программирования. Получены математические модели структурных, топологических и технологических ограничений. Предложены целевые функции, формализующие оптимальный выбор проектных решений в различных ситуациях. Разработанная математическая модель декомпозиции изделия является гибкой и открытой. Она допускает расширения, учитывающие особенности изделия и его производства.

    Bozhko A.N.
    Hypergraph approach in the decomposition of complex technical systems
    Computer Research and Modeling, 2020, v. 12, no. 5, pp. 1007-1022

    The article considers a mathematical model of decomposition of a complex product into assembly units. This is an important engineering problem, which affects the organization of discrete production and its operational management. A review of modern approaches to mathematical modeling and automated computer-aided of decompositions is given. In them, graphs, networks, matrices, etc. serve as mathematical models of structures of technical systems. These models describe the mechanical structure as a binary relation on a set of system elements. The geometrical coordination and integrity of machines and mechanical devices during the manufacturing process is achieved by means of basing. In general, basing can be performed on several elements simultaneously. Therefore, it represents a variable arity relation, which can not be correctly described in terms of binary mathematical structures. A new hypergraph model of mechanical structure of technical system is described. This model allows to give an adequate formalization of assembly operations and processes. Assembly operations which are carried out by two working bodies and consist in realization of mechanical connections are considered. Such operations are called coherent and sequential. This is the prevailing type of operations in modern industrial practice. It is shown that the mathematical description of such operation is normal contraction of an edge of the hypergraph. A sequence of contractions transforming the hypergraph into a point is a mathematical model of the assembly process. Two important theorems on the properties of contractible hypergraphs and their subgraphs proved by the author are presented. The concept of $s$-hypergraphs is introduced. $S$-hypergraphs are the correct mathematical models of mechanical structures of any assembled technical systems. Decomposition of a product into assembly units is defined as cutting of an $s$-hypergraph into $s$-subgraphs. The cutting problem is described in terms of discrete mathematical programming. Mathematical models of structural, topological and technological constraints are obtained. The objective functions are proposed that formalize the optimal choice of design solutions in various situations. The developed mathematical model of product decomposition is flexible and open. It allows for extensions that take into account the characteristics of the product and its production.

  6. Представлена математическая модель, описывающая необратимые процессы поляризации и деформирования поликристаллических сегнетоэлектриков во внешних электрических и механических полях большой интенсивности, вследствие чего изменяется внутренняя структура и меняются свойства материала. Необратимые явления моделируются в трехмерной постановке для случая одновременного воздействия электрического поля и механических напряжений. Объектом исследования является представительный объем, в котором исследуются остаточные явления в виде возникающих индуцированных и необратимых частей вектора поляризации и тензора деформации. Основной задачей моделирования является построение определяющих соотношений, связывающих между собой вектор поляризации и тензор деформации, с одной стороны, и вектор электрического поля и тензор механических напряжений, с другой стороны. Рассмотрен общий случай, когда направление электрического поля может не совпадать ни с одним из главных направлений тензора механических напряжений. Для обратимых составляющих определяющие соотношения построены в виде линейных тензорных уравнений, в которых упругие и диэлектрические модули зависят от остаточной деформации, а пьезоэлектрические модули - от остаточной поляризации. Определяющие соотношения для необратимых частей строятся в несколько этапов. Вначале построена вспомогательная модель идеального или безгистерезисного случая, когда все векторы спонтанной поляризации могут поворачиваться в поле внешних сил без взаимного влияния друг на друга. Предложен способ подсчета результирующих значений предельно возможных значений поляризации и деформации идеального случая в виде поверхностных интегралов по единичной сфере с плотностью распределения, полученной из статистического закона Больцмана. Далее сделаны оценки энергетических затрат, необходимых для слома механизмов закрепления доменов, и подсчитана работа внешних полей в реальном и идеальном случаях. На основании этого выведен энергетический баланс и получены определяющие соотношения для необратимых составляющих в виде уравнений в дифференциалах. Разработана схема численного решения этих уравнений для определения текущих значений необратимых искомых характеристик в заданных электрических и механических полях. Для циклических нагрузок построены диэлектрические, деформационные и пьезоэлектрические гистерезисные кривые.

    Разработанная модель может быть имплантирована в конечно-элементный комплекс для расчета неоднородных остаточных полей поляризации и деформирования с последующим определением физических модулей неоднородно поляризованной керамики как локально анизотропного тела.

    Skaliukh A.S.
    Modeling the response of polycrystalline ferroelectrics to high-intensity electric and mechanical fields
    Computer Research and Modeling, 2022, v. 14, no. 1, pp. 93-113

    A mathematical model describing the irreversible processes of polarization and deformation of polycrystalline ferroelectrics in external electric and mechanical fields of high intensity is presented, as a result of which the internal structure changes and the properties of the material change. Irreversible phenomena are modeled in a three-dimensional setting for the case of simultaneous action of an electric field and mechanical stresses. The object of the research is a representative volume in which the residual phenomena in the form of the induced and irreversible parts of the polarization vector and the strain tensor are investigated. The main task of modeling is to construct constitutive relations connecting the polarization vector and strain tensor, on the one hand, and the electric field vector and mechanical stress tensor, on the other hand. A general case is considered when the direction of the electric field may not coincide with any of the main directions of the tensor of mechanical stresses. For reversible components, the constitutive relations are constructed in the form of linear tensor equations, in which the modules of elasticity and dielectric permeability depend on the residual strain, and the piezoelectric modules depend on the residual polarization. The constitutive relations for irreversible parts are constructed in several stages. First, an auxiliary model was constructed for the ideal or unhysteretic case, when all vectors of spontaneous polarization can rotate in the fields of external forces without mutual influence on each other. A numerical method is proposed for calculating the resulting values of the maximum possible polarization and deformation values of an ideal case in the form of surface integrals over the unit sphere with the distribution density obtained from the statistical Boltzmann law. After that the estimates of the energy costs required for breaking down the mechanisms holding the domain walls are made, and the work of external fields in real and ideal cases is calculated. On the basis of this, the energy balance was derived and the constitutive relations for irreversible components in the form of equations in differentials were obtained. A scheme for the numerical solution of these equations has been developed to determine the current values of the irreversible required characteristics in the given electrical and mechanical fields. For cyclic loads, dielectric, deformation and piezoelectric hysteresis curves are plotted.

    The developed model can be implanted into a finite element complex for calculating inhomogeneous residual polarization and deformation fields with subsequent determination of the physical modules of inhomogeneously polarized ceramics as a locally anisotropic body.

  7. Двинских Д.М., Пырэу В.В., Гасников А.В.
    О связях задач стохастической выпуклой минимизации с задачами минимизации эмпирического риска на шарах в $p$-нормах
    Компьютерные исследования и моделирование, 2022, т. 14, № 2, с. 309-319

    В данной работе рассматриваются задачи выпуклой стохастической оптимизации, возникающие в анализе данных (минимизация функции риска), а также в математической статистике (минимизация функции правдоподобия). Такие задачи могут быть решены как онлайн-, так и офлайн-методами (метод Монте-Карло). При офлайн-подходе исходная задача заменяется эмпирической задачей — задачей минимизации эмпирического риска. В современном машинном обучении ключевым является следующий вопрос: какой размер выборки (количество слагаемых в функционале эмпирического риска) нужно взять, чтобы достаточно точное решение эмпирической задачи было решением исходной задачи с заданной точностью. Базируясь на недавних существенных продвижениях в машинном обучении и оптимизации для решения выпуклых стохастических задач на евклидовых шарах (или всем пространстве), мы рассматриваем случай произвольных шаров в $p$-нормах и исследуем, как влияет выбор параметра $p$ на оценки необходимого числа слагаемых в функции эмпирического риска.

    В данной работе рассмотрены как выпуклые задачи оптимизации, так и седловые. Для сильно выпуклых задач были обобщены уже имеющиеся результаты об одинаковых размерах выборки в обоих подходах (онлайн и офлайн) на произвольные нормы. Более того, было показано, что условие сильной выпуклости может быть ослаблено: полученные результаты справедливы для функций, удовлетворяющих условию квадратичного роста. В случае когда данное условие не выполняется, предлагается использовать регуляризацию исходной задачи в произвольной норме. В отличие от выпуклых задач седловые задачи являются намного менее изученными. Для седловых задач размер выборки был получен при условии $\gamma$-роста седловой функции по разным группам переменных. Это условие при $\gamma = 1$ есть не что иное, как аналог условия острого минимума в выпуклых задач. В данной статье было показано, что размер выборки в случае острого минимума (седла) почти не зависит от желаемой точности решения исходной задачи.

    Dvinskikh D.M., Pirau V.V., Gasnikov A.V.
    On the relations of stochastic convex optimization problems with empirical risk minimization problems on $p$-norm balls
    Computer Research and Modeling, 2022, v. 14, no. 2, pp. 309-319

    In this paper, we consider convex stochastic optimization problems arising in machine learning applications (e. g., risk minimization) and mathematical statistics (e. g., maximum likelihood estimation). There are two main approaches to solve such kinds of problems, namely the Stochastic Approximation approach (online approach) and the Sample Average Approximation approach, also known as the Monte Carlo approach, (offline approach). In the offline approach, the problem is replaced by its empirical counterpart (the empirical risk minimization problem). The natural question is how to define the problem sample size, i. e., how many realizations should be sampled so that the quite accurate solution of the empirical problem be the solution of the original problem with the desired precision. This issue is one of the main issues in modern machine learning and optimization. In the last decade, a lot of significant advances were made in these areas to solve convex stochastic optimization problems on the Euclidean balls (or the whole space). In this work, we are based on these advances and study the case of arbitrary balls in the $p$-norms. We also explore the question of how the parameter $p$ affects the estimates of the required number of terms as a function of empirical risk.

    In this paper, both convex and saddle point optimization problems are considered. For strongly convex problems, the existing results on the same sample sizes in both approaches (online and offline) were generalized to arbitrary norms. Moreover, it was shown that the strong convexity condition can be weakened: the obtained results are valid for functions satisfying the quadratic growth condition. In the case when this condition is not met, it is proposed to use the regularization of the original problem in an arbitrary norm. In contradistinction to convex problems, saddle point problems are much less studied. For saddle point problems, the sample size was obtained under the condition of $\gamma$-growth of the objective function. When $\gamma = 1$, this condition is the condition of sharp minimum in convex problems. In this article, it was shown that the sample size in the case of a sharp minimum is almost independent of the desired accuracy of the solution of the original problem.

  8. Богомолов С.В.
    Стохастическая формализация газодинамической иерархии
    Компьютерные исследования и моделирование, 2022, т. 14, № 4, с. 767-779

    Математические модели газовой динамики и ее вычислительная индустрия, на наш взгляд, далеки от совершенства. Мы посмотрим на эту проблематику с точки зрения ясной вероятностной микромодели газа из твердых сфер, опираясь как на теорию случайных процессов, так и на классическую кинетическую теорию в терминах плотностей функций распределения в фазовом пространстве; а именно, построим сначала систему нелинейных стохастических дифференциальных уравнений (СДУ), а затем обобщенное случайное и неслучайное интегро-дифференциальное уравнение Больцмана с учетом корреляций и флуктуаций. Ключевыми особенностями исходной модели являются случайный характер интенсивности скачкообразной меры и ее зависимость от самого процесса.

    Кратко напомним переход ко все более грубым мезо-макроприближениям в соответствии с уменьшением параметра обезразмеривания, числа Кнудсена. Получим стохастические и неслучайные уравнения, сначала в фазовом пространстве (мезомодель в терминах СДУ по винеров- ским мерам и уравнения Колмогорова – Фоккера – Планка), а затем в координатном пространстве (макроуравнения, отличающиеся от системы уравнений Навье – Стокса и систем квазигазодинамики). Главным отличием этого вывода является более точное осреднение по скорости благодаря аналитическому решению стохастических дифференциальных уравнений по винеровской мере, в виде которых представлена промежуточная мезомодель в фазовом пространстве. Такой подход существенно отличается от традиционного, использующего не сам случайный процесс, а его функцию распределения. Акцент ставится на прозрачности допущений при переходе от одного уровня детализации к другому, а не на численных экспериментах, в которых содержатся дополнительные погрешности аппроксимации.

    Теоретическая мощь микроскопического представления макроскопических явлений важна и как идейная опора методов частиц, альтернативных разностным и конечно-элементным.

    Bogomolov S.V.
    Stochastic formalization of the gas dynamic hierarchy
    Computer Research and Modeling, 2022, v. 14, no. 4, pp. 767-779

    Mathematical models of gas dynamics and its computational industry, in our opinion, are far from perfect. We will look at this problem from the point of view of a clear probabilistic micro-model of a gas from hard spheres, relying on both the theory of random processes and the classical kinetic theory in terms of densities of distribution functions in phase space, namely, we will first construct a system of nonlinear stochastic differential equations (SDE), and then a generalized random and nonrandom integro-differential Boltzmann equation taking into account correlations and fluctuations. The key feature of the initial model is the random nature of the intensity of the jump measure and its dependence on the process itself.

    Briefly recall the transition to increasingly coarse meso-macro approximations in accordance with a decrease in the dimensionalization parameter, the Knudsen number. We obtain stochastic and non-random equations, first in phase space (meso-model in terms of the Wiener — measure SDE and the Kolmogorov – Fokker – Planck equations), and then — in coordinate space (macro-equations that differ from the Navier – Stokes system of equations and quasi-gas dynamics systems). The main difference of this derivation is a more accurate averaging by velocity due to the analytical solution of stochastic differential equations with respect to the Wiener measure, in the form of which an intermediate meso-model in phase space is presented. This approach differs significantly from the traditional one, which uses not the random process itself, but its distribution function. The emphasis is placed on the transparency of assumptions during the transition from one level of detail to another, and not on numerical experiments, which contain additional approximation errors.

    The theoretical power of the microscopic representation of macroscopic phenomena is also important as an ideological support for particle methods alternative to difference and finite element methods.

  9. Брацун Д.А., Лоргов Е.С., Полуянов А.О.
    Репрессилятор с запаздывающей экспрессией генов. Часть I. Детерминистское описание
    Компьютерные исследования и моделирование, 2018, т. 10, № 2, с. 241-259

    Репрессилятором называют первую в синтетической биологии генную регуляторную сеть, искусственно сконструированную в 2000 году. Он представляет собой замкнутую цепь из трех генетических элементов — $lacI$, $\lambda cI$ и $tetR$, — которые имеют естественное происхождение, но в такой комбинации в природе не встречаются. Промотор каждого гена контролирует следующий за ним цистрон по принципу отрицательной обратной связи, подавляя экспрессию соседнего гена. В данной работе впервые рассматривается нелинейная динамика модифицированного репрессилятора, у которого имеются запаздывания по времени во всех звеньях регуляторной цепи. Запаздывание может быть как естественным, т. е. возникать во время транскрипции/трансляции генов в силу многоступенчатого характера этих процессов, так и искусственным, т. е. специально вноситься в работу регуляторной сети с помощью методов синтетической биологии. Предполагается, что регуляция осуществляется протеинами в димерной форме. Рассмотренный репрессилятор имеет еще две важные модификации: расположение на той же плазмиде гена $gfp$, кодирующего флуоресцентный белок, а также наличие в системе накопителя для белка, кодируемого геном $tetR$. В рамках детерминистского описания методом разложения на быстрые и медленные движения получена система нелинейных дифференциальных уравнений с запаздыванием на медленном многообразии. Показано, что при определенных значениях управляющих параметров единственное состояние равновесия теряет устойчивость колебательным образом. Для симметричного репрессилятора, у которого все три гена идентичны, получено аналитическое решение для нейтральной кривой бифуркации Андронова–Хопфа. Для общего случая асимметричного репрессилятора нейтральные кривые построены численно. Показано, что асимметричный репрессилятор является более устойчивым, так как система ориентируется на поведение наиболее стабильного элемента в цепи. Изучены нелинейные динамические режимы, возникающие в репрессиляторе при увеличении надкритических значений управляющих параметров. Кроме предельного цикла, отвечающего поочередным релаксационным пульсациям белковых концентраций элементов, в системе обнаружено существование медленного многообразия, не связанного с этим циклом. Долгоживущий переходный режим, который отвечает многообразию, отражает процесс длительной синхронизации пульсаций в работе отдельных генов. Производится сравнение полученных результатов с известными из литературы экспериментальными данными. Обсуждается место предложенной в работе модели среди других теоретических моделей репрессилятора.

    Bratsun D.A., Lorgov E.S., Poluyanov A.O.
    Repressilator with time-delayed gene expression. Part I. Deterministic description
    Computer Research and Modeling, 2018, v. 10, no. 2, pp. 241-259

    The repressor is the first genetic regulatory network in synthetic biology, which was artificially constructed in 2000. It is a closed network of three genetic elements — $lacI$, $\lambda cI$ and $tetR$, — which have a natural origin, but are not found in nature in such a combination. The promoter of each of the three genes controls the next cistron via the negative feedback, suppressing the expression of the neighboring gene. In this paper, the nonlinear dynamics of a modified repressilator, which has time delays in all parts of the regulatory network, has been studied for the first time. Delay can be both natural, i.e. arises during the transcription/translation of genes due to the multistage nature of these processes, and artificial, i.e. specially to be introduced into the work of the regulatory network using synthetic biology technologies. It is assumed that the regulation is carried out by proteins being in a dimeric form. The considered repressilator has two more important modifications: the location on the same plasmid of the gene $gfp$, which codes for the fluorescent protein, and also the presence in the system of a DNA sponge. In the paper, the nonlinear dynamics has been considered within the framework of the deterministic description. By applying the method of decomposition into fast and slow motions, the set of nonlinear differential equations with delay on a slow manifold has been obtained. It is shown that there exists a single equilibrium state which loses its stability in an oscillatory manner at certain values of the control parameters. For a symmetric repressilator, in which all three genes are identical, an analytical solution for the neutral Andronov–Hopf bifurcation curve has been obtained. For the general case of an asymmetric repressilator, neutral curves are found numerically. It is shown that the asymmetric repressor generally is more stable, since the system is oriented to the behavior of the most stable element in the network. Nonlinear dynamic regimes arising in a repressilator with increase of the parameters are studied in detail. It was found that there exists a limit cycle corresponding to relaxation oscillations of protein concentrations. In addition to the limit cycle, we found the slow manifold not associated with above cycle. This is the long-lived transitional regime, which reflects the process of long-term synchronization of pulsations in the work of individual genes. The obtained results are compared with the experimental data known from the literature. The place of the model proposed in the present work among other theoretical models of the repressilator is discussed.

    Просмотров за год: 30.
  10. Руденко В.Д., Юдин Н.Е., Васин А.А.
    Обзор выпуклой оптимизации марковских процессов принятия решений
    Компьютерные исследования и моделирование, 2023, т. 15, № 2, с. 329-353

    В данной статье проведен обзор как исторических достижений, так и современных результатов в области марковских процессов принятия решений (Markov Decision Process, MDP) и выпуклой оптимизации. Данный обзор является первой попыткой освещения на русском языке области обучения с подкреплением в контексте выпуклой оптимизации. Рассматриваются фундаментальное уравнение Беллмана и построенные на его основе критерии оптимальности политики — стратегии, принимающие решение по известному состоянию среды на данный момент. Также рассмотрены основные итеративные алгоритмы оптимизации политики, построенные на решении уравнений Беллмана. Важным разделом данной статьи стало рассмотрение альтернативы к подходу $Q$-обучения — метода прямой максимизации средней награды агента для избранной стратегии от взаимодействия со средой. Таким образом, решение данной задачи выпуклой оптимизации представимо в виде задачи линейного программирования. В работе демонстрируется, как аппарат выпуклой оптимизации применяется для решения задачи обучения с подкреплением (Reinforcement Learning, RL). В частности, показано, как понятие сильной двойственности позволяет естественно модифицировать постановку задачи RL, показывая эквивалентность между максимизацией награды агента и поиском его оптимальной стратегии. В работе также рассматривается вопрос сложности оптимизации MDP относительно количества троек «состояние–действие–награда», получаемых в результате взаимодействия со средой. Представлены оптимальные границы сложности решения MDP в случае эргодического процесса с бесконечным горизонтом, а также в случае нестационарного процесса с конечным горизонтом, который можно перезапускать несколько раз подряд или сразу запускать параллельно в нескольких потоках. Также в обзоре рассмотрены последние результаты по уменьшению зазора нижней и верхней оценки сложности оптимизации MDP с усредненным вознаграждением (Averaged MDP, AMDP). В заключение рассматриваются вещественнозначная параметризация политики агента и класс градиентных методов оптимизации через максимизацию $Q$-функции ценности. В частности, представлен специальный класс MDP с ограничениями на ценность политики (Constrained Markov Decision Process, CMDP), для которых предложен общий прямодвойственный подход к оптимизации, обладающий сильной двойственностью.

    Rudenko V.D., Yudin N.E., Vasin A.A.
    Survey of convex optimization of Markov decision processes
    Computer Research and Modeling, 2023, v. 15, no. 2, pp. 329-353

    This article reviews both historical achievements and modern results in the field of Markov Decision Process (MDP) and convex optimization. This review is the first attempt to cover the field of reinforcement learning in Russian in the context of convex optimization. The fundamental Bellman equation and the criteria of optimality of policy — strategies based on it, which make decisions based on the known state of the environment at the moment, are considered. The main iterative algorithms of policy optimization based on the solution of the Bellman equations are also considered. An important section of this article was the consideration of an alternative to the $Q$-learning approach — the method of direct maximization of the agent’s average reward for the chosen strategy from interaction with the environment. Thus, the solution of this convex optimization problem can be represented as a linear programming problem. The paper demonstrates how the convex optimization apparatus is used to solve the problem of Reinforcement Learning (RL). In particular, it is shown how the concept of strong duality allows us to naturally modify the formulation of the RL problem, showing the equivalence between maximizing the agent’s reward and finding his optimal strategy. The paper also discusses the complexity of MDP optimization with respect to the number of state–action–reward triples obtained as a result of interaction with the environment. The optimal limits of the MDP solution complexity are presented in the case of an ergodic process with an infinite horizon, as well as in the case of a non-stationary process with a finite horizon, which can be restarted several times in a row or immediately run in parallel in several threads. The review also reviews the latest results on reducing the gap between the lower and upper estimates of the complexity of MDP optimization with average remuneration (Averaged MDP, AMDP). In conclusion, the real-valued parametrization of agent policy and a class of gradient optimization methods through maximizing the $Q$-function of value are considered. In particular, a special class of MDPs with restrictions on the value of policy (Constrained Markov Decision Process, CMDP) is presented, for which a general direct-dual approach to optimization with strong duality is proposed.

Страницы: « первая предыдущая следующая последняя »

Журнал индексируется в Scopus

Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU

Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science

Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"

Международная Междисциплинарная Конференция МАТЕМАТИКА. КОМПЬЮТЕР. ОБРАЗОВАНИЕ.