Текущий выпуск Номер 1, 2025 Том 17

Все выпуски

Результаты поиска по 'generalized solutions':
Найдено статей: 71
  1. Данилова М.Ю., Малиновский Г.С.
    Метод тяжелого шарика с усреднением
    Компьютерные исследования и моделирование, 2022, т. 14, № 2, с. 277-308

    Методы оптимизации первого порядка являются важным рабочим инструментов для широкого спектра современных приложений в разных областях, среди которых можно выделить экономику, физику, биологию, машинное обучение и управление. Среди методов первого порядка особого внимания заслуживают ускоренные (моментные) методы в силу их практической эффективности. Метод тяжелого шарика (heavy-ball method — HB) — один из первых ускоренных методов. Данный метод был разработан в 1964 г., и для него был проведен анализ сходимости для квадратичных сильно выпуклых функций. С тех пор были предложены и проанализированы разные варианты HB. В частности, HB известен своей простотой реализации и эффективностью при решении невыпуклых задач. Однако, как и другие моментные методы, он имеет немонотонное поведение; более того, при сходимости HB с оптимальными параметрами наблюдается нежелательное явление, называемое пик-эффектом. Чтобы решить эту проблему, в этой статье мы рассматриваем усредненную версию метода тяжелого шарика (averaged heavy-ball method — AHB). Мы показываем, что для квадратичных задач AHB имеет меньшее максимальное отклонение от решения, чем HB. Кроме того, для общих выпуклых и сильно выпуклых функций доказаны неускоренные скорости глобальной сходимости AHB, его версии WAHB cо взвешенным усреднением, а также для AHB с рестартами R-AHB. Насколько нам известно, такие гарантии для HB с усреднением не были явно доказаны для сильно выпуклых задач в существующих работах. Наконец, мы проводим несколько численных экспериментов для минимизации квадратичных и неквадратичных функций, чтобы продемонстрировать преимущества использования усреднения для HB. Кроме того, мы также протестировали еще одну модификацию AHB, называемую методом tail-averaged heavy-ball (TAHB). В экспериментах мы наблюдали, что HB с правильно настроенной схемой усреднения сходится быстрее, чем HB без усреднения, и имеет меньшие осцилляции.

    Danilova M.Y., Malinovskiy G.S.
    Averaged heavy-ball method
    Computer Research and Modeling, 2022, v. 14, no. 2, pp. 277-308

    First-order optimization methods are workhorses in a wide range of modern applications in economics, physics, biology, machine learning, control, and other fields. Among other first-order methods accelerated and momentum ones obtain special attention because of their practical efficiency. The heavy-ball method (HB) is one of the first momentum methods. The method was proposed in 1964 and the first analysis was conducted for quadratic strongly convex functions. Since then a number of variations of HB have been proposed and analyzed. In particular, HB is known for its simplicity in implementation and its performance on nonconvex problems. However, as other momentum methods, it has nonmonotone behavior, and for optimal parameters, the method suffers from the so-called peak effect. To address this issue, in this paper, we consider an averaged version of the heavy-ball method (AHB). We show that for quadratic problems AHB has a smaller maximal deviation from the solution than HB. Moreover, for general convex and strongly convex functions, we prove non-accelerated rates of global convergence of AHB, its weighted version WAHB, and for AHB with restarts R-AHB. To the best of our knowledge, such guarantees for HB with averaging were not explicitly proven for strongly convex problems in the existing works. Finally, we conduct several numerical experiments on minimizing quadratic and nonquadratic functions to demonstrate the advantages of using averaging for HB. Moreover, we also tested one more modification of AHB called the tail-averaged heavy-ball method (TAHB). In the experiments, we observed that HB with a properly adjusted averaging scheme converges faster than HB without averaging and has smaller oscillations.

  2. Плетнев Н.В., Матюхин В.В.
    О модификации метода покомпонентного спуска для решения некоторых обратных задач математической физики
    Компьютерные исследования и моделирование, 2023, т. 15, № 2, с. 301-316

    Статья посвящена решению некорректно поставленных задач математической физики для эллиптических и параболических уравнений, а именно задачи Коши для уравнения Гельмгольца и ретроспективной задачи Коши для уравнения теплопроводности с постоянными коэффициентами. Эти задачи сводятся к задачам выпуклой оптимизации в гильбертовом пространстве. Градиенты соответствующих функционалов вычисляются приближенно с помощью решения двух корректных задач. Предлагается метод решения исследуемых задач оптимизации — покомпонентный спуск в базисе из собственных функций связанного с задачей самосопряженного оператора. Если бы было возможно точное вычисление градиента, то этот метод давал бы сколь угодно точное решение задачи в зависимости от количества рассматриваемых элементов базиса. В реальных случаях возникновение погрешностей при вычислениях приводит к нарушению монотонности, что требует применения рестартов и ограничивает достижимое качество. В работе приводятся результаты экспериментов, подтверждающие эффективность построенного метода. Определяется, что новый подход превосходит подходы, основанные на использовании градиентных методов оптимизации: он позволяет достичь лучшего качества решения при значительно меньшем расходе вычислительных ресурсов. Предполагается, что построенный метод может быть обобщен и на другие задачи.

    Pletnev N.V., Matyukhin V.V.
    On the modification of the method of component descent for solving some inverse problems of mathematical physics
    Computer Research and Modeling, 2023, v. 15, no. 2, pp. 301-316

    The article is devoted to solving ill-posed problems of mathematical physics for elliptic and parabolic equations, such as the Cauchy problem for the Helmholtz equation and the retrospective Cauchy problem for the heat equation with constant coefficients. These problems are reduced to problems of convex optimization in Hilbert space. The gradients of the corresponding functionals are calculated approximately by solving two well-posed problems. A new method is proposed for solving the optimization problems under study, it is component-by-component descent in the basis of eigenfunctions of a self-adjoint operator associated with the problem. If it was possible to calculate the gradient exactly, this method would give an arbitrarily exact solution of the problem, depending on the number of considered elements of the basis. In real cases, the inaccuracy of calculations leads to a violation of monotonicity, which requires the use of restarts and limits the achievable quality. The paper presents the results of experiments confirming the effectiveness of the constructed method. It is determined that the new approach is superior to approaches based on the use of gradient optimization methods: it allows to achieve better quality of solution with significantly less computational resources. It is assumed that the constructed method can be generalized to other problems.

  3. Минкевич И.Г.
    Неполные системы линейных уравнений с ограничениями на переменные
    Компьютерные исследования и моделирование, 2014, т. 6, № 5, с. 719-745

    Сформулирована задача описания объектов различной природы на основе системы линейных уравнений, в которой число неизвестных превосходит число уравнений. Важной особенностью такой задачи, существенно усложняющей ее решение, являются ограничения на значения ряда переменных. Примером такой задачи является выбор биохимических реакций, осуществляющих преобразование заданного субстрата (исходного вещества) в заданный продукт. В этом случае неизвестными являются скорости биохимических реакций, образующие искомый вектор решения. Компоненты этого вектора в описываемом подходе разделяются на две группы: 1) задаваемые, $\vec{y}$; 2) зависящие от задаваемых, $\vec{x}$. Изучены варианты конфигурации области допустимых значений $\vec{y}$, следующие из ограничений, наложенных на компоненты $\vec{x}$. Выявлено, что часть ограничений могут быть излишними и поэтому исключенными из рассмотрения, что упрощает решение задачи. Анализируются случаи, когда два или более ограничений на $\vec{x}$ приводят к появлению жестких связей между компонентами $\vec{y}$. Описаны методы поиска базисных решений, учитывающие особенности данной задачи. Постановка общей задачи и полученные решения проиллюстрированы биохимическим примером.

    Minkevich I.G.
    Incomplete systems of linear equations with restrictions of variable values
    Computer Research and Modeling, 2014, v. 6, no. 5, pp. 719-745

    The problem is formulated for description of objects having various natures which uses a system of linear equations with variable number exceeding the number of the equations. An important feature of this problem that substantially complicates its solving is the existing of restrictions imposed on a number of the variables. In particular, the choice of biochemical reaction aggregate that converts a preset substrate (a feedstock) into a preset product belongs to this kind of problems. In this case, unknown variables are the rates of biochemical reactions which form a vector to be determined. Components of this vector are subdivided into two groups: 1) the defined components, $\vec{y}$; 2) those dependent on the defined ones, $\vec{x}$. Possible configurations of the domain of $\vec{y}$ values permitted by restrictions imposed upon $\vec{x}$ components have been studied. It has been found that a part of restrictions may be superfluous and, therefore, unnecessary for the problem solving. Situations are analyzed when two or more $\vec{x}$ restrictions result in strict interconnections between $\vec{y}$ components. Methods of search of the basis solutions which take into account the peculiarities of this problem are described. Statement of the general problem and properties of its solutions are illustrated using a biochemical example.

    Просмотров за год: 24. Цитирований: 3 (РИНЦ).
  4. Крат Ю.Г., Потапов И.И.
    Устойчивость дна в напорных каналах
    Компьютерные исследования и моделирование, 2015, т. 7, № 5, с. 1061-1068

    В работе на основе предложенной ранее русловой модели решена одномерная задача устойчивости песчаного дна напорного канала. Особенностью исследуемой задачи является используемое оригинальное уравнение русловых деформаций, учитывающее влияние физико-механических и гранулометрических характеристик донного материала и неровности донной поверхности при русловом анализе. Еще одной особенностью рассматриваемой задачи является учет влияния не только придонного касательного, но и нормального напряжения при изучении русловой неустойчивости. Из решения задачи устойчивости песчаного дна для напорного канала получена аналитическая зависимость, определяющая длину волны для быстрорастущих донных возмущений. Выполнен анализ полученной аналитической зависимости, показано, что она обобщает ряд известных эмпирических формул: Коулмана, Шуляка и Бэгнольда. Структура полученной аналитической зависимости указывает на существование двух гидродинамических режимов, характеризуемых числом Фруда, при которых рост донных возмущений может сильно или слабо зависеть от числа Фруда. Учитывая природную стохастичность процесса движения донных волн и наличие области определения решения со слабой зависимостью от чисел Фруда, можно сделать вывод о том, что экспериментальное наблюдение за процессом развития движения донных волн в данной области должно приводить к получению данных, имеющих существенную дисперсию, что и происходит в действительности.

    Krat Y.G., Potapov I.I.
    Bottom stability in closed conduits
    Computer Research and Modeling, 2015, v. 7, no. 5, pp. 1061-1068

    In this paper on the basis of the riverbed model proposed earlier the one-dimensional stability problem of closed flow channel with sandy bed is solved. The feature of the investigated problem is used original equation of riverbed deformations, which takes into account the influence of mechanical and granulometric bed material characteristics and the bed slope when riverbed analyzing. Another feature of the discussed problem is the consideration together with shear stress influence normal stress influence when investigating the riverbed instability. The analytical dependence determined the wave length of fast-growing bed perturbations is obtained from the solution of the sandy bed stability problem for closed flow channel. The analysis of the obtained analytical dependence is performed. It is shown that the obtained dependence generalizes the row of well-known empirical formulas: Coleman, Shulyak and Bagnold. The structure of the obtained analytical dependence denotes the existence of two hydrodynamic regimes characterized by the Froude number, at which the bed perturbations growth can strongly or weakly depend on the Froude number. Considering a natural stochasticity of the waves movement process and the presence of a definition domain of the solution with a weak dependence on the Froude numbers it can be concluded that the experimental observation of the of the bed waves movement development should lead to the data acquisition with a significant dispersion and it occurs in reality.

    Просмотров за год: 1. Цитирований: 2 (РИНЦ).
  5. Коганов А.В.
    Тесты проверки параллельной организации логических вычислений, основанные на алгебре и автоматах
    Компьютерные исследования и моделирование, 2017, т. 9, № 4, с. 621-638

    Работа продолжает опубликованные ранее исследования по способности человека повышать производительность обработки информации при параллельном выполнении нескольких логических операций заданного вида. В статье предлагаются новые тесты, позволяющие выявлять указанную способность человеческого мозга в серии предъявлений. Производительность человека определяется средним количеством информации, которую обрабатывает человек в единицу времени, решая серию тестовых задач. Сложность задачи в каждой серии тестов определяется средним количеством логических операций, которые надо выполнить для решения с учетом статистических свойств серии задач. Тесты строятся таким образом, чтобы сложность контролировалась. Изучается зависимость производительности испытуемого от сложности задач в серии. Если человек использует последовательный алгоритм решения и не меняет скорости выполнения логических операций, то производительность не зависит от сложности и среднее время решения задачи в серии примерно пропорционально сложности. Если скорость выполнения операций растет с повышением сложности (растет концентрация внимания), то увеличивается и производительность. Тот же эффект возникает, если человек при достаточно высокой сложности задачи начинает выполнять несколько логических операций одновременно (параллельные вычисления). Для контроля причин роста производительности строятся контрольные тесты на том же классе логических операций, в которых параллельная организация счета малоэффективна. Если рост производительности наблюдается как на основных, так и на контрольных тестах, то причиной роста производительности является увеличение быстродействия. Если же на контрольных тестах нет роста производительности, а на основных тестах рост имеется, то причиной роста является параллельный счет. С точки зрения теории операций это означает использование одновременной работы нескольких процессоров, каждый из которых в единицу времени перерабатывает не более некоторого известного числа элементов входных данных или промежуточных результатов (производительность процессора). В данной статье предлагается система тестов, в которой используется аппарат универсальных алгебр и теории автоматов. Работа является продолжением цикла работ по исследованию способностей человека к параллельным вычислениям. Ранее использованные тесты в экспериментах показали эффективность методики. Основные предыдущие публикации на эту тему приведены в списке литературы. Задачи в новых предлагаемых тестах можно описать как вычисление результата серии последовательных однотипных операций из некоторой специальной алгебры. Если операция ассоциативная, то с помощью удачной группировки вычислений можно эффективно применить параллельный счет. Анализируется зависимость времени решения задачи от сложности. Чтобы выявлять ситуации, когда человек увеличивает быстродействие одного процессора по мере роста сложности, требуется предъявить серии задач с похожими операциями, но в неассоциативной алгебре. Для таких задач параллельный счет малоэффективен с точки зрения отношения прироста производительности к увеличению числа процессоров. Так формируется контрольная группа тестов. В статье рассмотрен еще один класс тестов, основанных на расчете траектории состояния заданного формального автомата при задании входной последовательности. Исследован специальный класс автоматов (реле), конструкция которых влияет на эффективность параллельного расчета финального состояния. Для всех тестов оценивается эффективность параллельного счета. Эксперименты с новыми тестами не входят в данную статью.

    We build new tests which permit to increase the human capacity for the information processing by the parallel execution of the several logic operations of prescribed type. For checking of the causes of the capacity increasing we develop the check tests on the same logic operations class in which the parallel organization of the calculations is low-effectively. We use the apparatus of the universal algebra and automat theory. This article is the extension of the cycle of the work, which investigates the human capacity for the parallel calculations. The general publications on this theme content in the references. The tasks in the described tests may to define in the form of the calculation of the result in the sequence of the same type operations from some algebra. If this operation is associative then the parallel calculation is effectively by successful grouping of process. In Theory of operations that is the using the simultaneous work several processors. Each processor transforms in the time unit the certain known number of the elements of the input date or the intermediate results (the processor productivity). Now it is not known what kind elements of date are using by the brain for the logical or mathematical calculation, and how many elements are treating in the time units. Therefore the test contains the sequence of the presentations of the tasks with different numbers of logical operations in the fixed alphabet. That is the measure of the complexity for the task. The analysis of the depending of the time for the task solution from the complexity gives the possible to estimate the processor productivity and the form of the calculate organization. For the sequence calculations only one processor is working, and the time of solution is a line function of complexity. If the new processors begin to work in parallel when the complexities of the task increase than the depending of the solution time from complexity is represented by the curve which is convex at the bottom. For the detection of situation when the man increases the speed of the single processor under the condition of the increasing complexity we use the task series with similar operations but in the no associate algebra. In such tasks the parallel calculation is little affectivity in the sense of the increasing efficiency by the increasing the number of processors. That is the check set of the tests. In article we consider still one class of the tests, which are based on the calculation of the trajectory of the formal automat state if the input sequence is determined. We investigate the special class of automats (relay) for which the construction affect on the affectivity of the parallel calculations of the final automat state. For all tests we estimate the affectivity of the parallel calculation. This article do not contained the experiment results.

    Просмотров за год: 14. Цитирований: 1 (РИНЦ).
  6. Иванов А.М., Хохлов Н.И.
    Параллельная реализация сеточно-характеристического метода в случае явного выделения контактных границ
    Компьютерные исследования и моделирование, 2018, т. 10, № 5, с. 667-678

    В работе рассматривается применение технологии Message Passing Interface (MPI) для распараллеливания программного алгоритма, основанного на сеточно-характеристическом методе, применительно к численному решению уравнения линейной теории упругости. Данный алгоритм позволяет численно моделировать распространение динамических волновых возмущений в твердых деформируемых телах. К такого рода задачам относится решение прямой задачи распространения сейсмических волн, что представляет интерес в сейсмике и геофизике. Во снове решателя лежит сеточно-характеристический метод. В работе предложен способ уменьшения времени взаимодействия между процессами MPI в течение расчета. Это необходимо для того, чтобы можно было производить моделирование в сложных постановках, при этом сохраняя высокую эффективность параллелизма даже при большом количестве процессов. Решение проблемы эффективного взаимодействия представляет большой интерес, когда в расчете используется несколько расчетных сеток с произвольной геометрией контактов между ними. Сложность данной задачи возрастает, если допускается независимое распределение узлов расчетных сеток между процессами. В работе сформулирован обобщенный подход для обработки контактных условий в терминах переинтерполяции узлов из заданного участка одной сетки в определенную область второй сетки. Предложен эффективный способ распараллеливания и установления эффективных межпроцессорных коммуникаций. Приведены результаты работы реализованного программного кода: получены волновые поля и сейсмограммы как для 2D-, так и для 3D-постановок. Показано, что данный алгоритм может быть реализован в том числе на криволинейных расчетных сетках. Рассмотренные постановки демонстрируют возможность проведения расчета с учетом топографии среды и криволинейных контактов между слоями. Это позволяет получать более точные результаты, чем при расчете только с использованием декартовых сеток. Полученная эффективность распараллеливания — практически 100% вплоть до 4096 процессов (за основу отсчета взята версия, запущенная на 128 процессах). Дале наблюдается ожидаемое постепенное снижение эффективности. Скорость спада не велика, на 16384 процессах удается сохранить 80%-ную эффективность.

    Ivanov A.M., Khokhlov N.I.
    Parallel implementation of the grid-characteristic method in the case of explicit contact boundaries
    Computer Research and Modeling, 2018, v. 10, no. 5, pp. 667-678

    We consider an application of the Message Passing Interface (MPI) technology for parallelization of the program code which solves equation of the linear elasticity theory. The solution of this equation describes the propagation of elastic waves in demormable rigid bodies. The solution of such direct problem of seismic wave propagation is of interest in seismics and geophysics. Our implementation of solver uses grid-characteristic method to make simulations. We consider technique to reduce time of communication between MPI processes during the simulation. This is important when it is necessary to conduct modeling in complex problem formulations, and still maintain the high level of parallelism effectiveness, even when thousands of processes are used. A solution of the problem of effective communication is extremely important when several computational grids with arbirtrary geometry of contacts between them are used in the calculation. The complexity of this task increases if an independent distribution of the grid nodes between processes is allowed. In this paper, a generalized approach is developed for processing contact conditions in terms of nodes reinterpolation from a given section of one grid to a certain area of the second grid. An efficient way of parallelization and establishing effective interprocess communications is proposed. For provided example problems we provide wave fileds and seismograms for both 2D and 3D formulations. It is shown that the algorithm can be realized both on Cartesian and on structured (curvilinear) computational grids. The considered statements demonstrate the possibility of carrying out calculations taking into account the surface topographies and curvilinear geometry of curvilinear contacts between the geological layers. Application of curvilinear grids allows to obtain more accurate results than when calculating only using Cartesian grids. The resulting parallelization efficiency is almost 100% up to 4096 processes (we used 128 processes as a basis to find efficiency). With number of processes larger than 4096, an expected gradual decrease in efficiency is observed. The rate of decline is not great, so at 16384 processes the parallelization efficiency remains at 80%.

    Просмотров за год: 18.
  7. Фомин А.А., Фомина Л.Н.
    Влияние силы плавучести на смешанную конвекцию жидкости переменной плотности в квадратной каверне с подвижной крышкой
    Компьютерные исследования и моделирование, 2020, т. 12, № 3, с. 575-595

    В работе рассматривается задача стационарной смешанной конвекции и теплообмена вязкой теплопроводной жидкости в плоской квадратной каверне с подвижной верхней крышкой. Нагретая верхняя стенка каверны имеет температуру $T_{\mathrm{H}}$, холодная нижняя — $T_\mathrm{0}$ $(T_\mathrm{H} > T_\mathrm{0})$, а боковые стенки каверны теплоизолированы. Особенностью задачи является тот факт, что плотность жидкости может принимать произвольные значения в зависимости от величины перегрева крышки каверны. Математическая постановка включает в себя уравнения Навье–Стокса в переменных «скорость–давление» и баланса тепла, сформулированные с учетом несжимаемости течения жидкости и воздействия объемной силы плавучести. Разностная аппроксимация исходных дифференциальных уравнений выполнена методом контрольного объема. Численные решения задачи получены на сетке $501 \times 501$ для следующих значений параметров подобия: число Прандтля Pr = 0.70; число Рейнольдса Re = 100, 1000; число Ричардсона Ri = 0.1, 1, 10 и относительный перегрев верхней стенки $(T_\mathrm{H} − T_\mathrm{0})/T_\mathrm{0} = 0, 1, 2, 3$. Достоверность полученных результатов подтверждена их сравнением с литературными данными. Представлены подробные картины течения в виде линий тока и изотерм перегрева потока. Показано, что увеличение значения числа Ричардсона (рост влияния силы плавучести) приводит к принципиальному изменению структуры течения жидкости. Также установлено, что учет переменности плотности жидкости приводит к ослаблению влияния роста Ri на трансформацию структуры течения. Это связано с тем, что изменение плотности в замкнутом объеме всегда приводит к возникновению зон с отрицательной плавучестью. Как следствие, конкуренция положительных и отрицательных объемных сил приводит в целом к ослаблению эффекта плавучести. Также проанализировано поведение коэффициентов теплоотдачи (числа Нуссельта) и трения вдоль нижней стенки каверны в зависимости от параметров задачи. Выявлено, что влияние переменности плотности на эти коэффициенты тем больше, чем большие значения при прочих равных условиях принимает число Ричардсона.

    Fomin A.A., Fomina L.N.
    Effect of buoyancy force on mixed convection of a variable density fluid in a square lid-driven cavity
    Computer Research and Modeling, 2020, v. 12, no. 3, pp. 575-595

    The paper considers the problem of stationary mixed convection and heat transfer of a viscous heatconducting fluid in a plane square lid-driven cavity. The hot top cover of the cavity has any temperature $T_\mathrm{H}$ and cold bottom wall has temperature $T_\mathrm{0} (T_\mathrm{H} > T_\mathrm{0})$, whereas in contrast the side walls are insulated. The fact that the fluid density can take arbitrary values depending on the amount of overheating of the cavity cover is a feature of the problem. The mathematical formulation includes the Navier–Stokes equations in the ’velocity–pressure’ variables and the heat balance equation which take into account the incompressibility of the fluid flow and the influence of volumetric buoyancy force. The difference approximation of the original differential equations has been performed by the control volume method. Numerical solutions of the problem have been obtained on the $501 \times 501$ grid for the following values of similarity parameters: Prandtl number Pr = 0.70; Reynolds number Re = 100 and 1000; Richardson number Ri = 0.1, 1, and 10; and the relative cover overheating $(T_\mathrm{H}-T_\mathrm{0})/T_\mathrm{0} = 0, 1, 2, 3$. Detailed flow patterns in the form of streamlines and isotherms of relative overheating of the fluid flow are given in the work. It is shown that the increase in the value of the Richardson number (the increase in the influence of buoyancy force) leads to a fundamental change in the structure of the liquid stream. It is also found out that taking into account the variability of the liquid density leads to weakening of the influence of Ri growth on the transformation of the flow structure. The change in density in a closed volume is the cause of this weakening, since it always leads to the existence of zones with negative buoyancy in the presence of a volumetric force. As a consequence, the competition of positive and negative volumetric forces leads in general to weakening of the buoyancy effect. The behaviors of heat exchange coefficient (Nusselt number) and coefficient of friction along the bottom wall of the cavity depending on the parameters of the problem are also analyzed. It is revealed that the greater the values of the Richardson number are, the greater, ceteris paribus, the influence of density variation on these coefficients is.

  8. Божко А.Н.
    Гиперграфовый подход в декомпозиции сложных технических систем
    Компьютерные исследования и моделирование, 2020, т. 12, № 5, с. 1007-1022

    В статье рассматривается математическая модель декомпозиции сложного изделия на сборочные единицы. Это важная инженерная задача, которая влияет на организацию дискретного производства и его и оперативное управление. Приведен обзор современных подходов к математическому моделированию и автоматизированному синтезу декомпозиций. В них математическими моделями структур технических систем служат графы, сети, матрицы и др. Эти модели описывают механическую структуру как бинарное отношение на множестве элементов системы. Геометрическая координация и целостность машин и механических приборов в процессе изготовления достигаются при помощи базирования. В общем случае базирование может осуществляться относительно нескольких элементов одновременно. Поэтому оно представляет собой отношение переменной местности, которое не может быть корректно описано в терминах бинарных математических структур. Описана новая гиперграфовая модель механической структуры технической системы. Эта модель позволяет дать точную и лаконичную формализацию сборочных операций и процессов. Рассматриваются сборочные операции, которые выполняются двумя рабочими органами и заключаются в реализации механических связей. Такие операции называются когерентными и секвенциальными. Это преобладающий тип операций в современной промышленной практике. Показано, что математическим описанием такой операции является нормальное стягивание ребра гиперграфа. Последовательность стягиваний, трансформирующая гиперграф в точку, представляет собой математическую модель сборочного процесса. Приведены доказанные автором две важные теоремы о свойствах стягиваемых гиперграфов и подграфов. Введено понятие $s$-гиперграфа. $S$-гиперграфы являются корректными математическими моделями механических структур любых собираемых технических систем. Декомпозиция изделия на сборочные единицы поставлена как разрезание $s$-гиперграфа на $s$-подграфы. Задача разрезания описана в терминах дискретного математического программирования. Получены математические модели структурных, топологических и технологических ограничений. Предложены целевые функции, формализующие оптимальный выбор проектных решений в различных ситуациях. Разработанная математическая модель декомпозиции изделия является гибкой и открытой. Она допускает расширения, учитывающие особенности изделия и его производства.

    Bozhko A.N.
    Hypergraph approach in the decomposition of complex technical systems
    Computer Research and Modeling, 2020, v. 12, no. 5, pp. 1007-1022

    The article considers a mathematical model of decomposition of a complex product into assembly units. This is an important engineering problem, which affects the organization of discrete production and its operational management. A review of modern approaches to mathematical modeling and automated computer-aided of decompositions is given. In them, graphs, networks, matrices, etc. serve as mathematical models of structures of technical systems. These models describe the mechanical structure as a binary relation on a set of system elements. The geometrical coordination and integrity of machines and mechanical devices during the manufacturing process is achieved by means of basing. In general, basing can be performed on several elements simultaneously. Therefore, it represents a variable arity relation, which can not be correctly described in terms of binary mathematical structures. A new hypergraph model of mechanical structure of technical system is described. This model allows to give an adequate formalization of assembly operations and processes. Assembly operations which are carried out by two working bodies and consist in realization of mechanical connections are considered. Such operations are called coherent and sequential. This is the prevailing type of operations in modern industrial practice. It is shown that the mathematical description of such operation is normal contraction of an edge of the hypergraph. A sequence of contractions transforming the hypergraph into a point is a mathematical model of the assembly process. Two important theorems on the properties of contractible hypergraphs and their subgraphs proved by the author are presented. The concept of $s$-hypergraphs is introduced. $S$-hypergraphs are the correct mathematical models of mechanical structures of any assembled technical systems. Decomposition of a product into assembly units is defined as cutting of an $s$-hypergraph into $s$-subgraphs. The cutting problem is described in terms of discrete mathematical programming. Mathematical models of structural, topological and technological constraints are obtained. The objective functions are proposed that formalize the optimal choice of design solutions in various situations. The developed mathematical model of product decomposition is flexible and open. It allows for extensions that take into account the characteristics of the product and its production.

  9. Представлена математическая модель, описывающая необратимые процессы поляризации и деформирования поликристаллических сегнетоэлектриков во внешних электрических и механических полях большой интенсивности, вследствие чего изменяется внутренняя структура и меняются свойства материала. Необратимые явления моделируются в трехмерной постановке для случая одновременного воздействия электрического поля и механических напряжений. Объектом исследования является представительный объем, в котором исследуются остаточные явления в виде возникающих индуцированных и необратимых частей вектора поляризации и тензора деформации. Основной задачей моделирования является построение определяющих соотношений, связывающих между собой вектор поляризации и тензор деформации, с одной стороны, и вектор электрического поля и тензор механических напряжений, с другой стороны. Рассмотрен общий случай, когда направление электрического поля может не совпадать ни с одним из главных направлений тензора механических напряжений. Для обратимых составляющих определяющие соотношения построены в виде линейных тензорных уравнений, в которых упругие и диэлектрические модули зависят от остаточной деформации, а пьезоэлектрические модули - от остаточной поляризации. Определяющие соотношения для необратимых частей строятся в несколько этапов. Вначале построена вспомогательная модель идеального или безгистерезисного случая, когда все векторы спонтанной поляризации могут поворачиваться в поле внешних сил без взаимного влияния друг на друга. Предложен способ подсчета результирующих значений предельно возможных значений поляризации и деформации идеального случая в виде поверхностных интегралов по единичной сфере с плотностью распределения, полученной из статистического закона Больцмана. Далее сделаны оценки энергетических затрат, необходимых для слома механизмов закрепления доменов, и подсчитана работа внешних полей в реальном и идеальном случаях. На основании этого выведен энергетический баланс и получены определяющие соотношения для необратимых составляющих в виде уравнений в дифференциалах. Разработана схема численного решения этих уравнений для определения текущих значений необратимых искомых характеристик в заданных электрических и механических полях. Для циклических нагрузок построены диэлектрические, деформационные и пьезоэлектрические гистерезисные кривые.

    Разработанная модель может быть имплантирована в конечно-элементный комплекс для расчета неоднородных остаточных полей поляризации и деформирования с последующим определением физических модулей неоднородно поляризованной керамики как локально анизотропного тела.

    Skaliukh A.S.
    Modeling the response of polycrystalline ferroelectrics to high-intensity electric and mechanical fields
    Computer Research and Modeling, 2022, v. 14, no. 1, pp. 93-113

    A mathematical model describing the irreversible processes of polarization and deformation of polycrystalline ferroelectrics in external electric and mechanical fields of high intensity is presented, as a result of which the internal structure changes and the properties of the material change. Irreversible phenomena are modeled in a three-dimensional setting for the case of simultaneous action of an electric field and mechanical stresses. The object of the research is a representative volume in which the residual phenomena in the form of the induced and irreversible parts of the polarization vector and the strain tensor are investigated. The main task of modeling is to construct constitutive relations connecting the polarization vector and strain tensor, on the one hand, and the electric field vector and mechanical stress tensor, on the other hand. A general case is considered when the direction of the electric field may not coincide with any of the main directions of the tensor of mechanical stresses. For reversible components, the constitutive relations are constructed in the form of linear tensor equations, in which the modules of elasticity and dielectric permeability depend on the residual strain, and the piezoelectric modules depend on the residual polarization. The constitutive relations for irreversible parts are constructed in several stages. First, an auxiliary model was constructed for the ideal or unhysteretic case, when all vectors of spontaneous polarization can rotate in the fields of external forces without mutual influence on each other. A numerical method is proposed for calculating the resulting values of the maximum possible polarization and deformation values of an ideal case in the form of surface integrals over the unit sphere with the distribution density obtained from the statistical Boltzmann law. After that the estimates of the energy costs required for breaking down the mechanisms holding the domain walls are made, and the work of external fields in real and ideal cases is calculated. On the basis of this, the energy balance was derived and the constitutive relations for irreversible components in the form of equations in differentials were obtained. A scheme for the numerical solution of these equations has been developed to determine the current values of the irreversible required characteristics in the given electrical and mechanical fields. For cyclic loads, dielectric, deformation and piezoelectric hysteresis curves are plotted.

    The developed model can be implanted into a finite element complex for calculating inhomogeneous residual polarization and deformation fields with subsequent determination of the physical modules of inhomogeneously polarized ceramics as a locally anisotropic body.

  10. Двинских Д.М., Пырэу В.В., Гасников А.В.
    О связях задач стохастической выпуклой минимизации с задачами минимизации эмпирического риска на шарах в $p$-нормах
    Компьютерные исследования и моделирование, 2022, т. 14, № 2, с. 309-319

    В данной работе рассматриваются задачи выпуклой стохастической оптимизации, возникающие в анализе данных (минимизация функции риска), а также в математической статистике (минимизация функции правдоподобия). Такие задачи могут быть решены как онлайн-, так и офлайн-методами (метод Монте-Карло). При офлайн-подходе исходная задача заменяется эмпирической задачей — задачей минимизации эмпирического риска. В современном машинном обучении ключевым является следующий вопрос: какой размер выборки (количество слагаемых в функционале эмпирического риска) нужно взять, чтобы достаточно точное решение эмпирической задачи было решением исходной задачи с заданной точностью. Базируясь на недавних существенных продвижениях в машинном обучении и оптимизации для решения выпуклых стохастических задач на евклидовых шарах (или всем пространстве), мы рассматриваем случай произвольных шаров в $p$-нормах и исследуем, как влияет выбор параметра $p$ на оценки необходимого числа слагаемых в функции эмпирического риска.

    В данной работе рассмотрены как выпуклые задачи оптимизации, так и седловые. Для сильно выпуклых задач были обобщены уже имеющиеся результаты об одинаковых размерах выборки в обоих подходах (онлайн и офлайн) на произвольные нормы. Более того, было показано, что условие сильной выпуклости может быть ослаблено: полученные результаты справедливы для функций, удовлетворяющих условию квадратичного роста. В случае когда данное условие не выполняется, предлагается использовать регуляризацию исходной задачи в произвольной норме. В отличие от выпуклых задач седловые задачи являются намного менее изученными. Для седловых задач размер выборки был получен при условии $\gamma$-роста седловой функции по разным группам переменных. Это условие при $\gamma = 1$ есть не что иное, как аналог условия острого минимума в выпуклых задач. В данной статье было показано, что размер выборки в случае острого минимума (седла) почти не зависит от желаемой точности решения исходной задачи.

    Dvinskikh D.M., Pirau V.V., Gasnikov A.V.
    On the relations of stochastic convex optimization problems with empirical risk minimization problems on $p$-norm balls
    Computer Research and Modeling, 2022, v. 14, no. 2, pp. 309-319

    In this paper, we consider convex stochastic optimization problems arising in machine learning applications (e. g., risk minimization) and mathematical statistics (e. g., maximum likelihood estimation). There are two main approaches to solve such kinds of problems, namely the Stochastic Approximation approach (online approach) and the Sample Average Approximation approach, also known as the Monte Carlo approach, (offline approach). In the offline approach, the problem is replaced by its empirical counterpart (the empirical risk minimization problem). The natural question is how to define the problem sample size, i. e., how many realizations should be sampled so that the quite accurate solution of the empirical problem be the solution of the original problem with the desired precision. This issue is one of the main issues in modern machine learning and optimization. In the last decade, a lot of significant advances were made in these areas to solve convex stochastic optimization problems on the Euclidean balls (or the whole space). In this work, we are based on these advances and study the case of arbitrary balls in the $p$-norms. We also explore the question of how the parameter $p$ affects the estimates of the required number of terms as a function of empirical risk.

    In this paper, both convex and saddle point optimization problems are considered. For strongly convex problems, the existing results on the same sample sizes in both approaches (online and offline) were generalized to arbitrary norms. Moreover, it was shown that the strong convexity condition can be weakened: the obtained results are valid for functions satisfying the quadratic growth condition. In the case when this condition is not met, it is proposed to use the regularization of the original problem in an arbitrary norm. In contradistinction to convex problems, saddle point problems are much less studied. For saddle point problems, the sample size was obtained under the condition of $\gamma$-growth of the objective function. When $\gamma = 1$, this condition is the condition of sharp minimum in convex problems. In this article, it was shown that the sample size in the case of a sharp minimum is almost independent of the desired accuracy of the solution of the original problem.

Страницы: « первая предыдущая следующая последняя »

Журнал индексируется в Scopus

Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU

Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science

Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"

Международная Междисциплинарная Конференция МАТЕМАТИКА. КОМПЬЮТЕР. ОБРАЗОВАНИЕ.