Текущий выпуск Номер 1, 2026 Том 18

Все выпуски

Результаты поиска по 'A* algorithm':
Найдено статей: 324
  1. Кривовичев Г.В.
    Разностные схемы расщепления для системы одномерных уравнений гемодинамики
    Компьютерные исследования и моделирование, 2024, т. 16, № 2, с. 459-488

    Работа посвящена построению и анализу разностных схем для системы уравнений гемодинамики, полученной осреднением уравнений гидродинамики вязкой несжимаемой жидкости по поперечному сечению сосуда. Рассматриваются модели крови как идеальной и как вязкой ньютоновской жидкости. Предложены разностные схемы, аппроксимирующие уравнения со вторым порядком по пространственной переменной. Алгоритмы расчета по построенным схемам основаны на методе расщепления по физическим процессам, в рамках которого на одном шаге по времени уравнения модели рассматриваются раздельно и последовательно. Практическая реали- зация предложенных схем приводит к последовательному решению на каждом шаге по времени двух линейных систем с трехдиагональными матрицами. Показано, что схемы являются $\rho$-устойчивыми при незначительных ограничениях на шаг по времени в случае достаточно гладких решений.

    При решении задачи с известным аналитическим решением показано, что имеет место сходимость численного решения со вторым порядком по пространственной переменной в широком диапазоне значений шага сетки. При проведении вычислительных экспериментов по моделированию течения крови в модельных сосудистых системах производилось сравнение предложенных схем с такими известными явными схемами, как схема Лакса – Вендроффа, Лакса – Фридрихса и МакКормака. При решении задач показано, что результаты, полученные с помощью предложенных схем, близки к результатам расчетов, полученных по другим вычислительными схемам, в том числе построенным на основе других методов дискретизации. Показано, что в случае разных пространственных сеток время расчетов для предложенных схем значительно меньше, чем в случае явных схем, несмотря на необходимость решения на каждом шаге систем линейных уравнений. Недостатками схем является ограничение на шаг по времени в случае разрывных или сильно меняющихся решений и необходимость использования экстраполяции значений в граничных точках сосудов. В связи с этим актуальными для дальнейших исследований являются вопросы об адаптации схем расщепления к решению задач с разрывными решениями и в случаях специальных типов условий на концах сосудов.

    Krivovichev G.V.
    Difference splitting schemes for the system of one-dimensional equations of hemodynamics
    Computer Research and Modeling, 2024, v. 16, no. 2, pp. 459-488

    The work is devoted to the construction and analysis of difference schemes for a system of hemodynamic equations obtained by averaging the hydrodynamic equations of a viscous incompressible fluid over the vessel cross-section. Models of blood as an ideal and as a viscous Newtonian fluid are considered. Difference schemes that approximate equations with second order on the spatial variable are proposed. The computational algorithms of the constructed schemes are based on the method of splitting on physical processes. According to this approach, at one time step, the model equations are considered separately and sequentially. The practical implementation of the proposed schemes at each time step leads to a sequential solution of two linear systems with tridiagonal matrices. It is demonstrated that the schemes are $\rho$-stable under minor restrictions on the time step in the case of sufficiently smooth solutions.

    For the problem with a known analytical solution, it is demonstrated that the numerical solution has a second order convergence in a wide range of spatial grid step. The proposed schemes are compared with well-known explicit schemes, such as the Lax – Wendroff, Lax – Friedrichs and McCormack schemes in computational experiments on modeling blood flow in model vascular systems. It is demonstrated that the results obtained using the proposed schemes are close to the results obtained using other computational schemes, including schemes constructed by other approaches to spatial discretization. It is demonstrated that in the case of different spatial grids, the time of computation for the proposed schemes is significantly less than in the case of explicit schemes, despite the need to solve systems of linear equations at each step. The disadvantages of the schemes are the limitation on the time step in the case of discontinuous or strongly changing solutions and the need to use extrapolation of values at the boundary points of the vessels. In this regard, problems on the adaptation of splitting schemes for problems with discontinuous solutions and in cases of special types of conditions at the vessels ends are perspective for further research.

  2. Salem N., Al-Tarawneh K., Hudaib A., Salem H., Tareef A., Salloum H., Mazzara M.
    Generating database schema from requirement specification based on natural language processing and large language model
    Компьютерные исследования и моделирование, 2024, т. 16, № 7, с. 1703-1713

    A Large Language Model (LLM) is an advanced artificial intelligence algorithm that utilizes deep learning methodologies and extensive datasets to process, understand, and generate humanlike text. These models are capable of performing various tasks, such as summarization, content creation, translation, and predictive text generation, making them highly versatile in applications involving natural language understanding. Generative AI, often associated with LLMs, specifically focuses on creating new content, particularly text, by leveraging the capabilities of these models. Developers can harness LLMs to automate complex processes, such as extracting relevant information from system requirement documents and translating them into a structured database schema. This capability has the potential to streamline the database design phase, saving significant time and effort while ensuring that the resulting schema aligns closely with the given requirements. By integrating LLM technology with Natural Language Processing (NLP) techniques, the efficiency and accuracy of generating database schemas based on textual requirement specifications can be significantly enhanced. The proposed tool will utilize these capabilities to read system requirement specifications, which may be provided as text descriptions or as Entity-Relationship Diagrams (ERDs). It will then analyze the input and automatically generate a relational database schema in the form of SQL commands. This innovation eliminates much of the manual effort involved in database design, reduces human errors, and accelerates development timelines. The aim of this work is to provide a tool can be invaluable for software developers, database architects, and organizations aiming to optimize their workflow and align technical deliverables with business requirements seamlessly.

    Salem N., Al-Tarawneh K., Hudaib A., Salem H., Tareef A., Salloum H., Mazzara M.
    Generating database schema from requirement specification based on natural language processing and large language model
    Computer Research and Modeling, 2024, v. 16, no. 7, pp. 1703-1713

    A Large Language Model (LLM) is an advanced artificial intelligence algorithm that utilizes deep learning methodologies and extensive datasets to process, understand, and generate humanlike text. These models are capable of performing various tasks, such as summarization, content creation, translation, and predictive text generation, making them highly versatile in applications involving natural language understanding. Generative AI, often associated with LLMs, specifically focuses on creating new content, particularly text, by leveraging the capabilities of these models. Developers can harness LLMs to automate complex processes, such as extracting relevant information from system requirement documents and translating them into a structured database schema. This capability has the potential to streamline the database design phase, saving significant time and effort while ensuring that the resulting schema aligns closely with the given requirements. By integrating LLM technology with Natural Language Processing (NLP) techniques, the efficiency and accuracy of generating database schemas based on textual requirement specifications can be significantly enhanced. The proposed tool will utilize these capabilities to read system requirement specifications, which may be provided as text descriptions or as Entity-Relationship Diagrams (ERDs). It will then analyze the input and automatically generate a relational database schema in the form of SQL commands. This innovation eliminates much of the manual effort involved in database design, reduces human errors, and accelerates development timelines. The aim of this work is to provide a tool can be invaluable for software developers, database architects, and organizations aiming to optimize their workflow and align technical deliverables with business requirements seamlessly.

  3. Варшавский Л.Е.
    Итерационные методы декомпозиции при моделировании развития олигополистических рынков
    Компьютерные исследования и моделирование, 2025, т. 17, № 6, с. 1237-1256

    Один из принципов формирования рыночной конкурентной среды состоит в создании условий для реализации экономическими агентами стратегий, оптимальных по Нэшу – Курно. При стандартном подходе к определению рыночных стратегий, оптимальных по Нэшу – Курно, экономические агенты должны обладать полной информацией о показателях и динамических характеристиках всех участников рынка. Что не соответствует действительности.

    В связи с этим для отыскания оптимальных по Нэшу – Курно решений в динамических моделях необходимо наличие координатора, обладающего полной информацией об участниках. Однако в случае большого числа участников игры, даже при наличии у координатора необходимой информации, появляются вычислительные трудности, связанные с необходимостью решения большого числа связанных (coupled) уравнений (в случае линейных динамических игр с квадратическим критерием — матричных уравнений Риккати).

    В связи с этим возникает необходимость в декомпозиции общей задачи определения оптимальных стратегий участников рынка на частные (локальные) задачи. Применительно к линейным динамическим играм с квадратическим критерием исследовались подходы, основанные на итерационной декомпозиции связанных матричных уравнений Риккати и решении локальных уравнений Риккати. В настоящей статье рассматривается более простой подход к итерационному определению равновесия по Нэшу – Курно в олигополии путем декомпозиции с использованием операционного исчисления (операторного метода).

    Предлагаемый подход основан на следующей процедуре. Виртуальный координатор, обладающий информацией о параметрах обратной функции спроса, формирует цены на перспективный период. Олигополисты при заданной фиксированной динамике цен определяют свои стратегии в соответствии с несколько измененным критерием оптимальности. Оптимальные объемы продукции олигополистов поступают к координатору, который на основе итерационного алгоритма корректирует динамику цены на предыдущем шаге.

    Предлагаемая процедура иллюстрируется на примере статической и динамической моделей рационального поведения участников олигополии, которые максимизируют чистую текущую стоимость (NPV).

    При использовании методов операционного исчисления (и, в частности, обратного Z-преобразования) найдены условия, при которых итерационная процедура приводит к равновесным уровням цены и объемов производства в случае линейных динамических игр как с квадратичными, так и с нелинейными (вогнутыми) критериями оптимизации.

    Рассмотренный подход использован применительно к примерам дуополии, триополии, дуополии на рынке с дифференцированным продуктом, дуополии с взаимодействующими олигополистами при линейной обратной функции спроса. Сопоставление результатов расчетов динамики цены и объемов производства олигополистов для рассмотренных примеров на основе связанных (coupled) уравнений матричных уравнений Риккати в Matlab, а также в соответствии с предложенным итерационным методом в широко доступной системе Excel показывает их практическую идентичность.

    Кроме того, применение предложенной итерационной процедуры проиллюстрировано на примере дуополии с нелинейной функцией спроса.

    Varshavsky L.E.
    Iterative decomposition methods in modelling the development of oligopolistic markets
    Computer Research and Modeling, 2025, v. 17, no. 6, pp. 1237-1256

    One of the principles of forming a competitive market environment is to create conditions for economic agents to implement Nash – Cournot optimal strategies. With the standard approach to determining Nash – Cournot optimal market strategies, economic agents must have complete information about the indicators and dynamic characteristics of all market participants. Which is not true.

    In this regard, to find Nash – Cournot optimal solutions in dynamic models, it is necessary to have a coordinator who has complete information about the participants. However, in the case of a large number of game participants, even if the coordinator has the necessary information, computational difficulties arise associated with the need to solve a large number of coupled equations (in the case of linear dynamic games — Riccati matrix equations).

    In this regard, there is a need to decompose the general problem of determining optimal strategies for market participants into private (local) problems. Approaches based on the iterative decomposition of coupled matrix Riccati equations and the solution of local Riccati equations were studied for linear dynamic games with a quadratic criterion. This article considers a simpler approach to the iterative determination of the Nash – Cournot equilibrium in an oligopoly, by decomposition using operational calculus (operator method).

    The proposed approach is based on the following procedure. A virtual coordinator, which has information about the parameters of the inverse demand function, forms prices for the prospective period. Oligopolists, given fixed price dynamics, determine their strategies in accordance with a slightly modified optimality criterion. The optimal volumes of production of the oligopolists are sent to the coordinator, who, based on the iterative algorithm, adjusts the price dynamics at the previous step.

    The proposed procedure is illustrated by the example of a static and dynamic model of rational behavior of oligopoly participants who maximize the net present value (NPV). Using the methods of operational calculus (and in particular, the inverse Z-transformation), conditions are found under which the iterative procedure leads to equilibrium levels of price and production volumes in the case of linear dynamic games with both quadratic and nonlinear (concave) optimization criteria.

    The approach considered is used in relation to examples of duopoly, triopoly, duopoly on the market with a differentiated product, duopoly with interacting oligopolists with a linear inverse demand function. Comparison of the results of calculating the dynamics of price and production volumes of oligopolists for the considered examples based on coupled equations of the matrix Riccati equations in Matlab (in the table — Riccati), as well as in accordance with the proposed iterative method in the widely available Excel system shows their practical identity.

    In addition, the application of the proposed iterative procedure is illustrated by the example of a duopoly with a nonlinear demand function.

  4. Ветчанин Е.В., Тененев В.А., Шаура А.С.
    Управление движением жесткого тела в вязкой жидкости
    Компьютерные исследования и моделирование, 2013, т. 5, № 4, с. 659-675

    Решена задача оптимального управления движением мобильного объекта с внешней жесткой оболочкой вдользаданной траектории в вязкой жидкости. Рассматриваемый мобильный робот обладает свойством самопродвижения. Самопродвижение осуществляется за счет возвратнопоступательных колебаний внутренней материальной точки. Оптимальное управление движением построено на основе системы нечеткого логического вывода Сугено. Для получения базы нечетких правил предложен подход, основанный на построении деревьев решений с помощью разработанного генетического алгоритма структурно-параметрического синтеза.

    Vetchanin E.V., Tenenev V.A., Shaura A.S.
    Motion control of a rigid body in viscous fluid
    Computer Research and Modeling, 2013, v. 5, no. 4, pp. 659-675

    We consider the optimal motion control problem for a mobile device with an external rigid shell moving along a prescribed trajectory in a viscous fluid. The mobile robot under consideration possesses the property of self-locomotion. Self-locomotion is implemented due to back-and-forth motion of an internal material point. The optimal motion control is based on the Sugeno fuzzy inference system. An approach based on constructing decision trees using the genetic algorithm for structural and parametric synthesis has been proposed to obtain the base of fuzzy rules.

    Просмотров за год: 2. Цитирований: 1 (РИНЦ).
  5. Русяк И.Г., Тененев В.А.
    Моделирование баллистики артиллерийского выстрела с учетом пространственного распределения параметров и противодавления
    Компьютерные исследования и моделирование, 2020, т. 12, № 5, с. 1123-1147

    В работе приводится сравнительный анализ результатов, полученных при различных подходах к моделированию процесса артиллерийского выстрела. В этой связи дана постановка основной задачи внутренней баллистики и ее частного случая задачи Лагранжа в осредненных параметрах, где в рамках допущений термодинамического подхода впервые учтены распределения давления и скорости газа по заснарядному пространству для канала переменного сечения. Представлена также постановка задачи Лагранжа в рамках газодинамического подхода, учитывающего пространственное (одномерное и двумерное осесимметричное) изменение характеристик внутрибаллистического процесса. Для численного решения системы газодинамических уравнений Эйлера применяется метод контрольного объема. Параметры газа на границах контрольных объемов опреде- ляются с использованием автомодельного решения задачи о распаде произвольного разрыва. На базе метода Годунова предложена модификация схемы Ошера, позволяющая реализовать алгоритм численного расчета со вторым порядком точности по координате и времени. Проведено сравнение решений, полученных в рамках термодинамического и газодинамического подходов, при различных параметрах заряжания. Изучено влияние массы снаряда и уширения камеры на распределение внутрибаллистических параметров выстрела и динамику движения снаряда. Показано, что термодинамический подход, по сравнению с газодинамическим подходом, приводит к систематическому завышению расчетной дульной скорости снаряда во всем исследованном диапазоне изменения параметров, при этом различие по дульной скорости может достигать 35 %. В то же время расхождение результатов, полученных в рамках одномерной и двумерной газодинамических моделей выстрела в этом же диапазоне изменения параметров, составляет не более 1.3 %.

    Дана пространственная газодинамическая постановка задачи о противодавлении, описывающая изменение давления перед ускоряющимся снарядом при его движении по каналу ствола. Показано, что учет формы передней части снаряда в рамках двумерной осесимметричной постановки задачи приводит к существенному различию полей давления за фронтом ударной волны по сравнению с решением в рамках одномерной постановки задачи, где форму передней части снаряда учесть невозможно. Сделан вывод, что это может существенно повлиять на результаты моделирования баллистики выстрела при высоких скоростях метания.

    Rusyak I.G., Tenenev V.A.
    Modeling of ballistics of an artillery shot taking into account the spatial distribution of parameters and backpressure
    Computer Research and Modeling, 2020, v. 12, no. 5, pp. 1123-1147

    The paper provides a comparative analysis of the results obtained by various approaches to modeling the process of artillery shot. In this connection, the main problem of internal ballistics and its particular case of the Lagrange problem are formulated in averaged parameters, where, within the framework of the assumptions of the thermodynamic approach, the distribution of pressure and gas velocity over the projectile space for a channel of variable cross section is taken into account for the first time. The statement of the Lagrange problem is also presented in the framework of the gas-dynamic approach, taking into account the spatial (one-dimensional and two-dimensional axisymmetric) changes in the characteristics of the ballistic process. The control volume method is used to numerically solve the system of Euler gas-dynamic equations. Gas parameters at the boundaries of control volumes are determined using a selfsimilar solution to the Riemann problem. Based on the Godunov method, a modification of the Osher scheme is proposed, which allows to implement a numerical calculation algorithm with a second order of accuracy in coordinate and time. The solutions obtained in the framework of the thermodynamic and gas-dynamic approaches are compared for various loading parameters. The effect of projectile mass and chamber broadening on the distribution of the ballistic parameters of the shot and the dynamics of the projectile motion was studied. It is shown that the thermodynamic approach, in comparison with the gas-dynamic approach, leads to a systematic overestimation of the estimated muzzle velocity of the projectile in the entire range of parameters studied, while the difference in muzzle velocity can reach 35%. At the same time, the discrepancy between the results obtained in the framework of one-dimensional and two-dimensional gas-dynamic models of the shot in the same range of change in parameters is not more than 1.3%.

    A spatial gas-dynamic formulation of the backpressure problem is given, which describes the change in pressure in front of an accelerating projectile as it moves along the barrel channel. It is shown that accounting the projectile’s front, considered in the two-dimensional axisymmetric formulation of the problem, leads to a significant difference in the pressure fields behind the front of the shock wave, compared with the solution in the framework of the onedimensional formulation of the problem, where the projectile’s front is not possible to account. It is concluded that this can significantly affect the results of modeling ballistics of a shot at high shooting velocities.

  6. Elaraby A.E., Nechaevskiy A.V.
    An effective segmentation approach for liver computed tomography scans using fuzzy exponential entropy
    Компьютерные исследования и моделирование, 2021, т. 13, № 1, с. 195-202

    Accurate segmentation of liver plays important in contouring during diagnosis and the planning of treatment. Imaging technology analysis and processing are wide usage in medical diagnostics, and therapeutic applications. Liver segmentation referring to the process of automatic or semi-automatic detection of liver image boundaries. A major difficulty in segmentation of liver image is the high variability as; the human anatomy itself shows major variation modes. In this paper, a proposed approach for computed tomography (CT) liver segmentation is presented by combining exponential entropy and fuzzy c-partition. Entropy concept has been utilized in various applications in imaging computing domain. Threshold techniques based on entropy have attracted a considerable attention over the last years in image analysis and processing literatures and it is among the most powerful techniques in image segmentation. In the proposed approach, the computed tomography (CT) of liver is transformed into fuzzy domain and fuzzy entropies are defined for liver image object and background. In threshold selection procedure, the proposed approach considers not only the information of liver image background and object, but also interactions between them as the selection of threshold is done by find a proper parameter combination of membership function such that the total fuzzy exponential entropy is maximized. Differential Evolution (DE) algorithm is utilizing to optimize the exponential entropy measure to obtain image thresholds. Experimental results in different CT livers scan are done and the results demonstrate the efficient of the proposed approach. Based on the visual clarity of segmented images with varied threshold values using the proposed approach, it was observed that liver segmented image visual quality is better with the results higher level of threshold.

    Elaraby A.E., Nechaevskiy A.V.
    An effective segmentation approach for liver computed tomography scans using fuzzy exponential entropy
    Computer Research and Modeling, 2021, v. 13, no. 1, pp. 195-202

    Accurate segmentation of liver plays important in contouring during diagnosis and the planning of treatment. Imaging technology analysis and processing are wide usage in medical diagnostics, and therapeutic applications. Liver segmentation referring to the process of automatic or semi-automatic detection of liver image boundaries. A major difficulty in segmentation of liver image is the high variability as; the human anatomy itself shows major variation modes. In this paper, a proposed approach for computed tomography (CT) liver segmentation is presented by combining exponential entropy and fuzzy c-partition. Entropy concept has been utilized in various applications in imaging computing domain. Threshold techniques based on entropy have attracted a considerable attention over the last years in image analysis and processing literatures and it is among the most powerful techniques in image segmentation. In the proposed approach, the computed tomography (CT) of liver is transformed into fuzzy domain and fuzzy entropies are defined for liver image object and background. In threshold selection procedure, the proposed approach considers not only the information of liver image background and object, but also interactions between them as the selection of threshold is done by find a proper parameter combination of membership function such that the total fuzzy exponential entropy is maximized. Differential Evolution (DE) algorithm is utilizing to optimize the exponential entropy measure to obtain image thresholds. Experimental results in different CT livers scan are done and the results demonstrate the efficient of the proposed approach. Based on the visual clarity of segmented images with varied threshold values using the proposed approach, it was observed that liver segmented image visual quality is better with the results higher level of threshold.

  7. Плетнев Н.В., Двуреченский П.Е., Гасников А.В.
    Применение градиентных методов оптимизации для решения задачи Коши для уравнения Гельмгольца
    Компьютерные исследования и моделирование, 2022, т. 14, № 2, с. 417-444

    Статья посвящена изучению применения методов выпуклой оптимизации для решения задачи Коши для уравнения Гельмгольца, которая является некорректной, поскольку уравнение относится к эллиптическому типу. Задача Коши формулируется как обратная задача и сводится к задаче выпуклой оптимизации в гильбертовом пространстве. Оптимизируемый функционал и его градиент вычисляются с помощью решения краевых задач, которые, в свою очередь, корректны и могут быть приближенно решены стандартными численными методами, такими как конечно-разностные схемы и разложения в ряды Фурье. Экспериментально исследуются сходимость применяемого быстрого градиентного метода и качество получаемого таким образом решения. Эксперимент показывает, что ускоренный градиентный метод — метод подобных треугольников — сходится быстрее, чем неускоренный метод. Сформулированы и доказаны теоремы о вычислительной сложности полученных алгоритмов. Установлено, что разложения в ряды Фурье превосходят конечно-разностные схемы по скорости вычислений и улучшают качество получаемого решения. Сделана попытка использовать рестарты метода подобных треугольников после уменьшения невязки функционала вдвое. В этом случае сходимость не улучшается, что подтверждает отсутствие сильной выпуклости. Эксперименты показывают, что неточность вычислений более адекватно описывается аддитивной концепцией шума в оракуле первого порядка. Этот фактор ограничивает достижимое качество решения, но ошибка не накапливается. Полученные результаты показывают, что использование ускоренных градиентных методов оптимизации позволяет эффективно решать обратные задачи.

    Pletnev N.V., Dvurechensky P.E., Gasnikov A.V.
    Application of gradient optimization methods to solve the Cauchy problem for the Helmholtz equation
    Computer Research and Modeling, 2022, v. 14, no. 2, pp. 417-444

    The article is devoted to studying the application of convex optimization methods to solve the Cauchy problem for the Helmholtz equation, which is ill-posed since the equation belongs to the elliptic type. The Cauchy problem is formulated as an inverse problem and is reduced to a convex optimization problem in a Hilbert space. The functional to be optimized and its gradient are calculated using the solution of boundary value problems, which, in turn, are well-posed and can be approximately solved by standard numerical methods, such as finite-difference schemes and Fourier series expansions. The convergence of the applied fast gradient method and the quality of the solution obtained in this way are experimentally investigated. The experiment shows that the accelerated gradient method — the Similar Triangle Method — converges faster than the non-accelerated method. Theorems on the computational complexity of the resulting algorithms are formulated and proved. It is found that Fourier’s series expansions are better than finite-difference schemes in terms of the speed of calculations and improve the quality of the solution obtained. An attempt was made to use restarts of the Similar Triangle Method after halving the residual of the functional. In this case, the convergence does not improve, which confirms the absence of strong convexity. The experiments show that the inaccuracy of the calculations is more adequately described by the additive concept of the noise in the first-order oracle. This factor limits the achievable quality of the solution, but the error does not accumulate. According to the results obtained, the use of accelerated gradient optimization methods can be the way to solve inverse problems effectively.

  8. Никитин И.С., Никитин А.Д.
    Мультирежимная модель и численный алгоритм расчета квазитрещин различного типа при циклическом нагружении
    Компьютерные исследования и моделирование, 2022, т. 14, № 4, с. 873-885

    На основе мультирежимной двухкритериальной модели усталостного разрушения предложен метод расчета зарождения и развития узкихлок ализованных зон поврежденности в образцах и элементах конструкций для различных режимов циклического нагружения. Такие узкие зоны повреждаемости можно рассматривать как квазитрещины двухтипов, соответствующих механизму нормального отрыва и сдвига. Проведена верификация модели путем численных экспериментов по воспроизведению левыхи правыхв етвей усталостных кривых для образцов из титановыхи алюминиевых сплавов, построенных по испытаниям при различных условиях и схемах циклического нагружения. Приведены примеры моделирования развития квазитрещин двухтипов (нормального отрыва и сдвига) при различных режимах циклического нагружения пластины с отверстием в качестве концентратора напряжений. При сложном напряженном состоянии в предлагаемой комплексной модели возможна естественная реализация любого из рассмотренных механизмов развития квазитрещин. Квазитрещины разных типов могут развиваться в разных частях образца, в том числе одновременно.

    Nikitin I.S., Nikitin A.D.
    Multi regime model and numerical algorithm for calculations on various types quasi crack developing under cyclic loading
    Computer Research and Modeling, 2022, v. 14, no. 4, pp. 873-885

    A new method for calculating the initiation and development of narrow local damage zones in specimens and structural elements subjected to various modes cyclic loadings is proposed based on multi regime two criteria model of fatigue fracture. Such narrow zones of damage can be considered as quasi-cracks of two different types, corresponding to the mechanism of normal crack opening and shear.

    Numerical simulations that are aimed to reproduce the left and right branches of the full fatigue curves for specimens made from titanium and aluminum alloy and to verify the model. These branches were constructed based on tests results obtained under various modes and cyclic loading schemes. Examples of modeling the development of quasi-cracks for two types (normal opening and shear) under different cyclic loading modes for a plate with a hole as a stress concentrator are given. Under a complex stress state in the proposed multi regime model, a natural implementation of any considered mechanisms for the quasi-cracks development is possible. Quasi-cracks of different types can develop in different parts of the specimen, including simultaneously.

  9. Игнатьев Н.А., Тулиев У.Ю.
    Семантическая структуризация текстовых документов на основе паттернов сущностей естественного языка
    Компьютерные исследования и моделирование, 2022, т. 14, № 5, с. 1185-1197

    Рассматривается технология создания паттернов из слов (понятий) естественного языка по текстовым данным в модели «мешок слов». Паттерны применяются для снижения размерности исходного пространства в описании документов и поиска семантически связанных слов по темам. Процесс снижения размерности реализуется через формирование по паттернам латентных признаков. Исследуется многообразие структур отношений документов для разбиения их на темы в латентном пространстве.

    Считается, что заданное множество документов (объектов) разделено на два непересекающихся класса, для анализа которых необходимо использовать общий словарь. Принадлежность слов к общему словарю изначально неизвестна. Объекты классов рассматриваются в ситуации оппозиции друг к другу. Количественные параметры оппозиционности определяются через значения устойчивости каждого признака и обобщенные оценки объектов по непересекающимся наборам признаков.

    Для вычисления устойчивости используются разбиения значений признаков на непересекающиеся интервалы, оптимальные границы которых определяются по специальному критерию. Максимум устойчивости достигается при условии, что в границах каждого интервала содержатся значения одного из двух классов.

    Состав признаков в наборах (паттернах из слов) формируется из упорядоченной по значениям устойчивости последовательности. Процесс формирования паттернов и латентных признаков на их основе реализуется по правилам иерархической агломеративной группировки.

    Набор латентных признаков используется для кластерного анализа документов по метрическим алгоритмам группировки. В процессе анализа применяется коэффициент контентной аутентичности на основе данных о принадлежности документов к классам. Коэффициент является численной характеристикой доминирования представителей классов в группах.

    Для разбиения документов на темы предложено использовать объединение групп по отношению их центров. В качестве закономерностей по каждой теме рассматривается упорядоченная по частоте встречаемости последовательность слов из общего словаря.

    Приводятся результаты вычислительного эксперимента на коллекциях авторефератов научных диссертаций. Сформированы последовательности слов из общего словаря по четырем темам.

    Ignatev N.A., Tuliev U.Y.
    Semantic structuring of text documents based on patterns of natural language entities
    Computer Research and Modeling, 2022, v. 14, no. 5, pp. 1185-1197

    The technology of creating patterns from natural language words (concepts) based on text data in the bag of words model is considered. Patterns are used to reduce the dimension of the original space in the description of documents and search for semantically related words by topic. The process of dimensionality reduction is implemented through the formation of patterns of latent features. The variety of structures of document relations is investigated in order to divide them into themes in the latent space.

    It is considered that a given set of documents (objects) is divided into two non-overlapping classes, for the analysis of which it is necessary to use a common dictionary. The belonging of words to a common vocabulary is initially unknown. Class objects are considered as opposition to each other. Quantitative parameters of oppositionality are determined through the values of the stability of each feature and generalized assessments of objects according to non-overlapping sets of features.

    To calculate the stability, the feature values are divided into non-intersecting intervals, the optimal boundaries of which are determined by a special criterion. The maximum stability is achieved under the condition that the boundaries of each interval contain values of one of the two classes.

    The composition of features in sets (patterns of words) is formed from a sequence ordered by stability values. The process of formation of patterns and latent features based on them is implemented according to the rules of hierarchical agglomerative grouping.

    A set of latent features is used for cluster analysis of documents using metric grouping algorithms. The analysis applies the coefficient of content authenticity based on the data on the belonging of documents to classes. The coefficient is a numerical characteristic of the dominance of class representatives in groups.

    To divide documents into topics, it is proposed to use the union of groups in relation to their centers. As patterns for each topic, a sequence of words ordered by frequency of occurrence from a common dictionary is considered.

    The results of a computational experiment on collections of abstracts of scientific dissertations are presented. Sequences of words from the general dictionary on 4 topics are formed.

  10. Макаров И.С., Баганцова Е.Р., Яшин П.А., Ковалёва М.Д., Горбачёв Р.А.
    Разработка и исследование алгоритмов машинного обучения для решения задачи классификации в публикациях Twitter
    Компьютерные исследования и моделирование, 2023, т. 15, № 1, с. 185-195

    Посты в социальных сетях способны как предсказывать движение финансового рынка, так и в некоторых случаях даже определять его направление. Анализ постов в Twitter способствует прогнозированию цен на криптовалюту. Специфика рассматриваемого сообщества заключается в особенной лексике. Так, в постах используются сленговые выражения, аббревиатуры и сокращения, наличие которых затрудняет векторизацию текстовых данных, в следствие чего рассматриваются методы предобработки такие, как лемматизация Stanza и применение регулярных выражений. В этой статье описываются простейшие модели машинного обучения, которые могут работать, несмотря на такие проблемы, как нехватка данных и короткие сроки прогнозирования. Решается задача бинарной текстовой классификации, в условиях которой слово рассматривается как элемент бинарного вектора единицы данных. Базисные слова определяются на основе частотного анализа упоминаний того или иного слова. Разметка составляется на основе свечей Binance с варьируемыми параметрами для более точного описания тренда изменения цены. В работе вводятся метрики, отражающие распределение слов в зависимости от их принадлежности к положительному или отрицательному классам. Для решения задачи классификации использовались dense-модель с подобранными при помощи Keras Tuner параметрами, логистическая регрессия, классификатор случайного леса, наивный байесовский классификатор, способный работать с малочисленной выборкой, что весьма актуально для нашей задачи, и метод k-ближайших соседей. Было проведено сравнение построенных моделей на основе метрики точности предсказанных меток. В ходе исследования было выяснено, что наилучшим подходом является использование моделей, которые предсказывают ценовые движения одной монеты. Наши модели имеют дело с постами, содержащими упоминания проекта LUNA, которого на данный момент уже не существует. Данный подход к решению бинарной классификации текстовых данных широко применяется для предсказания цены актива, тренда ее движения, что часто используется в автоматизированной торговле.

    Makarov I.S., Bagantsova E.R., Iashin P.A., Kovaleva M.D., Gorbachev R.A.
    Development of and research on machine learning algorithms for solving the classification problem in Twitter publications
    Computer Research and Modeling, 2023, v. 15, no. 1, pp. 185-195

    Posts on social networks can both predict the movement of the financial market, and in some cases even determine its direction. The analysis of posts on Twitter contributes to the prediction of cryptocurrency prices. The specificity of the community is represented in a special vocabulary. Thus, slang expressions and abbreviations are used in posts, the presence of which makes it difficult to vectorize text data, as a result of which preprocessing methods such as Stanza lemmatization and the use of regular expressions are considered. This paper describes created simplest machine learning models, which may work despite such problems as lack of data and short prediction timeframe. A word is considered as an element of a binary vector of a data unit in the course of the problem of binary classification solving. Basic words are determined according to the frequency analysis of mentions of a word. The markup is based on Binance candlesticks with variable parameters for a more accurate description of the trend of price changes. The paper introduces metrics that reflect the distribution of words depending on their belonging to a positive or negative classes. To solve the classification problem, we used a dense model with parameters selected by Keras Tuner, logistic regression, a random forest classifier, a naive Bayesian classifier capable of working with a small sample, which is very important for our task, and the k-nearest neighbors method. The constructed models were compared based on the accuracy metric of the predicted labels. During the investigation we recognized that the best approach is to use models which predict price movements of a single coin. Our model deals with posts that mention LUNA project, which no longer exist. This approach to solving binary classification of text data is widely used to predict the price of an asset, the trend of its movement, which is often used in automated trading.

Страницы: « первая предыдущая следующая последняя »

Журнал индексируется в Scopus

Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU

Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science

Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"

Международная Междисциплинарная Конференция МАТЕМАТИКА. КОМПЬЮТЕР. ОБРАЗОВАНИЕ.