Текущий выпуск Номер 1, 2026 Том 18

Все выпуски

Результаты поиска по 'optimization algorithm':
Найдено статей: 113
  1. Вавилова Д.Д., Кетова К.В., Зерари Р.
    Компьютерное моделирование динамики валового регионального продукта: сравнительный анализ нейросетевых моделей
    Компьютерные исследования и моделирование, 2025, т. 17, № 6, с. 1219-1236

    Анализ экономических показателей региона играет важную роль в управлении и планировании развития, при этом валовой региональный продукт (ВРП) является одним из ключевых индикаторов экономической деятельности. Применение искусственного интеллекта, в том числе нейросетевых технологий, позволяет значительно повысить точность и надежность прогнозов экономических процессов. В данном исследовании сравниваются три модели нейросетевых алгоритмов для прогнозирования ВРП одного из типичных регионов РФ — Удмуртской Республики — на основе временных рядов за период с 2000 по 2023 год. В качестве моделей выбраны нейронная сеть с алгоритмом летучей мыши (BA-LSTM), модель нейронной сети обратного распространения ошибки, оптимизированная с помощью генетического алгоритма (GA-BPNN), и нейросетевая модель Элмана, оптимизированная алгоритмом роя частиц (PSO-Elman). В ходе исследования были выполнены такие этапы нейросетевого моделирования, как подготовка исходных данных, обучение моделей и их сравнительный анализ по показателям точности и качества прогнозов. Такой подход позволяет оценить преимущества и недостатки каждой модели в контексте прогнозирования ВРП, а также определить наиболее перспективные направления для дальнейших исследований. Использование современных нейросетевых методов открывает новые возможности для автоматизации анализа региональной экономики и повышения качества прогнозных оценок, что особенно актуально при ограниченных данных и для оперативного принятия решений. В исследовании в качестве входных данных для прогнозирования ВРП используются такие факторы, как величина производственного капитала, среднегодовая численность трудовых ресурсов, доля продукции высокотехнологичных и наукоемких отраслей в ВРП, а также показатель, учитывающий инфляцию. Высокая точность прогнозов, достигнутая в результате включения этих факторов в нейросетевые модели, подтверждает наличие сильной связи между этими факторами и ВРП. Результаты исследования показали высокую точность нейросетевой модели BA-LSTM на валидационной выборке: коэффициент детерминации составил 0,82, средняя абсолютная процентная ошибка — 4,19%. Качество и надежность этой модели свидетельствуют о ее способности эффективно предсказы- вать динамику ВРП. В прогнозном периоде до 2030 года в Удмуртской Республике ожидается ежегодное увеличение ВРП +4,6% в текущих ценах или +2,5% в сопоставимых ценах 2023 года. К 2030 году прогнозируется ВРП на уровне 1264,5 млрд руб.

    Vavilova D.D., Ketova K.V., Zerari R.
    Computer modeling of the gross regional product dynamics: a comparative analysis of neural network models
    Computer Research and Modeling, 2025, v. 17, no. 6, pp. 1219-1236

    Analysis of regional economic indicators plays a crucial role in management and development planning, with Gross Regional Product (GRP) serving as one of the key indicators of economic activity. The application of artificial intelligence, including neural network technologies, enables significant improvements in the accuracy and reliability of forecasts of economic processes. This study compares three neural network algorithm models for predicting the GRP of a typical region of the Russian Federation — the Udmurt Republic — based on time series data from 2000 to 2023. The selected models include a neural network with the Bat Algorithm (BA-LSTM), a neural network model based on backpropagation error optimized with a Genetic Algorithm (GA-BPNN), and a neural network model of Elman optimized using the Particle Swarm Optimization algorithm (PSO-Elman). The research involved stages of neural network modeling such as data preprocessing, training model, and comparative analysis based on accuracy and forecast quality metrics. This approach allows for evaluating the advantages and limitations of each model in the context of GRP forecasting, as well as identifying the most promising directions for further research. The utilization of modern neural network methods opens new opportunities for automating regional economic analysis and improving the quality of forecast assessments, which is especially relevant when data are limited and for rapid decision-making. The study uses factors such as the amount of production capital, the average annual number of labor resources, the share of high-tech and knowledge-intensive industries in GRP, and an inflation indicator as input data for predicting GRP. The high accuracy of the predictions achieved by including these factors in the neural network models confirms the strong correlation between these factors and GRP. The results demonstrate the exceptional accuracy of the BA-LSTM neural network model on validation data: the coefficient of determination was 0.82, and the mean absolute percentage error was 4.19%. The high performance and reliability of this model confirm its capacity to predict effectively the dynamics of the GRP. During the forecast period up to 2030, the Udmurt Republic is expected to experience an annual increase in Gross Regional Product (GRP) of +4.6% in current prices or +2.5% in comparable 2023 prices. By 2030, the GRP is projected to reach 1264.5 billion rubles.

  2. Сайранов А.С., Касаткина Е.В., Нефедов Д.Г., Русяк И.Г.
    Применение генетических алгоритмов для управления организационными системами при возникновении нештатных ситуаций
    Компьютерные исследования и моделирование, 2019, т. 11, № 3, с. 533-556

    Оптимальное управление системой топливоснабжения заключается в выборе варианта развития энергетики, при котором достигается наиболее эффективное и надежное топливо- и энергоснабжение потребителей. В рамках реализации программы перевода распределенной системы теплоснабжения Удмуртской Республики на возобновляемые источники энергии была разработана информационно-аналитическая система управления топливоснабжением региона альтернативными видами топлива. В работе представлена математическая модель оптимального управления логистической системой топливоснабжения, состоящая из трех взаимосвязанных уровней: пункты накопления сырья, пункты производства топлива и пункты потребления. С целью повышения эффективности функционирования системы топливоснабжения региона информационно-аналитическая система расширена функционалом оперативного реагирования при возникновении нештатных ситуаций. Возникновение нештатных ситуаций на любом из уровней требует перестроения управления всей системой. Разработаны модели и алгоритмы оптимального управления в случае возникновения нештатных ситуаций, связанных с выходом из строя производственных звеньев логистической системы: пунктов накопления сырья и пунктов производства топлива. В математических моделях оптимального управления в качестве целевого критерия учитываются расходы, связанные с функционированием логистической системы при возникновении нештатной ситуации. Реализация разработанных алгоритмов основана на применении генетических алгоритмов оптимизации, что позволяет достичь наилучших результатов по времени работы алгоритма и точности полученного решения. Разработанные модели и алгоритмы интегрированы в информационно-аналитическую систему и позволяют оперативно реагировать на возникновение чрезвычайных ситуаций в системе топливоснабжения Удмуртской Республики путем применения альтернативных видов топлива.

    Sairanov A.S., Kasatkina E.V., Nefedov D.G., Rusyak I.G.
    The application of genetic algorithms for organizational systems’ management in case of emergency
    Computer Research and Modeling, 2019, v. 11, no. 3, pp. 533-556

    Optimal management of fuel supply system boils down to choosing an energy development strategy which provides consumers with the most efficient and reliable fuel and energy supply. As a part of the program on switching the heat supply distributed management system of the Udmurt Republic to renewable energy sources, an “Information-analytical system of regional alternative fuel supply management” was developed. The paper presents the mathematical model of optimal management of fuel supply logistic system consisting of three interconnected levels: raw material accumulation points, fuel preparation points and fuel consumption points, which are heat sources. In order to increase effective the performance of regional fuel supply system a modification of information-analytical system and extension of its set of functions using the methods of quick responding when emergency occurs are required. Emergencies which occur on any one of these levels demand the management of the whole system to reconfigure. The paper demonstrates models and algorithms of optimal management in case of emergency involving break down of such production links of logistic system as raw material accumulation points and fuel preparation points. In mathematical models, the target criterion is minimization of costs associated with the functioning of logistic system in case of emergency. The implementation of the developed algorithms is based on the usage of genetic optimization algorithms, which made it possible to obtain a more accurate solution in less time. The developed models and algorithms are integrated into the information-analytical system that enables to provide effective management of alternative fuel supply of the Udmurt Republic in case of emergency.

    Просмотров за год: 31.
  3. Стонякин Ф.С., Савчyк О.С., Баран И.В., Алкуса М.С., Титов А.А.
    Аналоги условия относительной сильной выпуклости для относительно гладких задач и адаптивные методы градиентного типа
    Компьютерные исследования и моделирование, 2023, т. 15, № 2, с. 413-432

    Данная статья посвящена повышению скоростных гарантий численных методов градиентного типа для относительно гладких и относительно липшицевых задач минимизации в случае дополнительных предположений о некоторых аналогах сильной выпуклости целевой функции. Рассматриваются два класса задач: выпуклые задачи с условием относительного функционального роста, а также задачи (вообще говоря, невыпуклые) с аналогом условия градиентного доминирования Поляка – Лоясиевича относительно дивергенции Брэгмана. Для первого типа задач мы предлагаем две схемы рестартов методов градиентного типа и обосновываем теоретические оценки сходимости двух алгоритмов с адаптивно подбираемыми параметрами, соответствующими относительной гладкости или липшицевости целевой функции. Первый из этих алгоритмов проще в части критерия выхода из итерации, но для него близкие к оптимальным вычислительные гарантии обоснованы только на классе относительно липшицевых задач. Процедура рестартов другого алгоритма, в свою очередь, позволила получить более универсальные теоретические результаты. Доказана близкая к оптимальной оценка сложности на классе выпуклых относительно липшицевых задач с условием функционального роста, а для класса относительно гладких задач с условием функционального роста получены гарантии линейной скорости сходимости. На классе задач с предложенным аналогом условия градиентного доминирования относительно дивергенции Брэгмана были получены оценки качества выдаваемого решения с использованием адаптивно подбираемых параметров. Также мы приводим результаты некоторых вычислительных экспериментов, иллюстрирующих работу методов для второго исследуемого в настоящей статье подхода. В качестве примеров мы рассмотрели линейную обратную задачу Пуассона (минимизация дивергенции Кульбака – Лейблера), ее регуляризованный вариант, позволяющий гарантировать относительную сильную выпуклость целевой функции, а также некоторый пример относительно гладкой и относительно сильно выпуклой задачи. В частности, с помощью расчетов показано, что относительно сильно выпуклая функция может не удовлетворять введенному относительному варианту условия градиентного доминирования.

    Stonyakin F.S., Savchuk O.S., Baran I.V., Alkousa M.S., Titov A.A.
    Analogues of the relative strong convexity condition for relatively smooth problems and adaptive gradient-type methods
    Computer Research and Modeling, 2023, v. 15, no. 2, pp. 413-432

    This paper is devoted to some variants of improving the convergence rate guarantees of the gradient-type algorithms for relatively smooth and relatively Lipschitz-continuous problems in the case of additional information about some analogues of the strong convexity of the objective function. We consider two classes of problems, namely, convex problems with a relative functional growth condition, and problems (generally, non-convex) with an analogue of the Polyak – Lojasiewicz gradient dominance condition with respect to Bregman divergence. For the first type of problems, we propose two restart schemes for the gradient type methods and justify theoretical estimates of the convergence of two algorithms with adaptively chosen parameters corresponding to the relative smoothness or Lipschitz property of the objective function. The first of these algorithms is simpler in terms of the stopping criterion from the iteration, but for this algorithm, the near-optimal computational guarantees are justified only on the class of relatively Lipschitz-continuous problems. The restart procedure of another algorithm, in its turn, allowed us to obtain more universal theoretical results. We proved a near-optimal estimate of the complexity on the class of convex relatively Lipschitz continuous problems with a functional growth condition. We also obtained linear convergence rate guarantees on the class of relatively smooth problems with a functional growth condition. For a class of problems with an analogue of the gradient dominance condition with respect to the Bregman divergence, estimates of the quality of the output solution were obtained using adaptively selected parameters. We also present the results of some computational experiments illustrating the performance of the methods for the second approach at the conclusion of the paper. As examples, we considered a linear inverse Poisson problem (minimizing the Kullback – Leibler divergence), its regularized version which allows guaranteeing a relative strong convexity of the objective function, as well as an example of a relatively smooth and relatively strongly convex problem. In particular, calculations show that a relatively strongly convex function may not satisfy the relative variant of the gradient dominance condition.

  4. Сухов Е.А., Чекина Е.А.
    Программный комплекс для численного моделирования движения систем многих тел
    Компьютерные исследования и моделирование, 2024, т. 16, № 1, с. 161-174

    В настоящей работе решается задача численного моделирования движения механических систем, состоящих из твердых тел с произвольными массово-инерционными характеристиками. Предполагается, что рассматриваемые системы являются пространственными и могут содержать замкнутые кинематические цепи. Движение системы происходит под действием внешних и внутренних сил достаточно произвольного вида.

    Моделирование движения механической системы производится полностью автоматически при помощи вычислительного алгоритма, состоящего из трех основных этапов. На первом этапе на основе задаваемых пользователем начальных данных выполняется построение графа механической системы, представляющего ее иерархическую структуру. На втором этапе происходит вывод дифференциально-алгебраических уравнений движения системы. Для вывода уравнений движения используется так называемый метод шарнирных координат. Отличительной чертой данного метода является сравнительно небольшое количество получаемых уравнений движения, что позволяет повысить производительность вычислений. На третьем этапе выполняются численное интегрирование уравнений движения и вывод результатов моделирования.

    Указанный алгоритм реализован в виде программного комплекса, содержащего систему символьной математики, библиотеку графов, механический решатель, библиотеку численных методов и пользовательский интерфейс.

    Sukhov E.A., Chekina E.A.
    Software complex for numerical modeling of multibody system dynamics
    Computer Research and Modeling, 2024, v. 16, no. 1, pp. 161-174

    This work deals with numerical modeling of motion of the multibody systems consisting of rigid bodies with arbitrary masses and inertial properties. We consider both planar and spatial systems which may contain kinematic loops.

    The numerical modeling is fully automatic and its computational algorithm contains three principal steps. On step one a graph of the considered mechanical system is formed from the userinput data. This graph represents the hierarchical structure of the mechanical system. On step two the differential-algebraic equations of motion of the system are derived using the so-called Joint Coordinate Method. This method allows to minimize the redundancy and lower the number of the equations of motion and thus optimize the calculations. On step three the equations of motion are integrated numerically and the resulting laws of motion are presented via user interface or files.

    The aforementioned algorithm is implemented in the software complex that contains a computer algebra system, a graph library, a mechanical solver, a library of numerical methods and a user interface.

  5. Salem N., Al-Tarawneh K., Hudaib A., Salem H., Tareef A., Salloum H., Mazzara M.
    Generating database schema from requirement specification based on natural language processing and large language model
    Компьютерные исследования и моделирование, 2024, т. 16, № 7, с. 1703-1713

    A Large Language Model (LLM) is an advanced artificial intelligence algorithm that utilizes deep learning methodologies and extensive datasets to process, understand, and generate humanlike text. These models are capable of performing various tasks, such as summarization, content creation, translation, and predictive text generation, making them highly versatile in applications involving natural language understanding. Generative AI, often associated with LLMs, specifically focuses on creating new content, particularly text, by leveraging the capabilities of these models. Developers can harness LLMs to automate complex processes, such as extracting relevant information from system requirement documents and translating them into a structured database schema. This capability has the potential to streamline the database design phase, saving significant time and effort while ensuring that the resulting schema aligns closely with the given requirements. By integrating LLM technology with Natural Language Processing (NLP) techniques, the efficiency and accuracy of generating database schemas based on textual requirement specifications can be significantly enhanced. The proposed tool will utilize these capabilities to read system requirement specifications, which may be provided as text descriptions or as Entity-Relationship Diagrams (ERDs). It will then analyze the input and automatically generate a relational database schema in the form of SQL commands. This innovation eliminates much of the manual effort involved in database design, reduces human errors, and accelerates development timelines. The aim of this work is to provide a tool can be invaluable for software developers, database architects, and organizations aiming to optimize their workflow and align technical deliverables with business requirements seamlessly.

    Salem N., Al-Tarawneh K., Hudaib A., Salem H., Tareef A., Salloum H., Mazzara M.
    Generating database schema from requirement specification based on natural language processing and large language model
    Computer Research and Modeling, 2024, v. 16, no. 7, pp. 1703-1713

    A Large Language Model (LLM) is an advanced artificial intelligence algorithm that utilizes deep learning methodologies and extensive datasets to process, understand, and generate humanlike text. These models are capable of performing various tasks, such as summarization, content creation, translation, and predictive text generation, making them highly versatile in applications involving natural language understanding. Generative AI, often associated with LLMs, specifically focuses on creating new content, particularly text, by leveraging the capabilities of these models. Developers can harness LLMs to automate complex processes, such as extracting relevant information from system requirement documents and translating them into a structured database schema. This capability has the potential to streamline the database design phase, saving significant time and effort while ensuring that the resulting schema aligns closely with the given requirements. By integrating LLM technology with Natural Language Processing (NLP) techniques, the efficiency and accuracy of generating database schemas based on textual requirement specifications can be significantly enhanced. The proposed tool will utilize these capabilities to read system requirement specifications, which may be provided as text descriptions or as Entity-Relationship Diagrams (ERDs). It will then analyze the input and automatically generate a relational database schema in the form of SQL commands. This innovation eliminates much of the manual effort involved in database design, reduces human errors, and accelerates development timelines. The aim of this work is to provide a tool can be invaluable for software developers, database architects, and organizations aiming to optimize their workflow and align technical deliverables with business requirements seamlessly.

  6. Варшавский Л.Е.
    Итерационные методы декомпозиции при моделировании развития олигополистических рынков
    Компьютерные исследования и моделирование, 2025, т. 17, № 6, с. 1237-1256

    Один из принципов формирования рыночной конкурентной среды состоит в создании условий для реализации экономическими агентами стратегий, оптимальных по Нэшу – Курно. При стандартном подходе к определению рыночных стратегий, оптимальных по Нэшу – Курно, экономические агенты должны обладать полной информацией о показателях и динамических характеристиках всех участников рынка. Что не соответствует действительности.

    В связи с этим для отыскания оптимальных по Нэшу – Курно решений в динамических моделях необходимо наличие координатора, обладающего полной информацией об участниках. Однако в случае большого числа участников игры, даже при наличии у координатора необходимой информации, появляются вычислительные трудности, связанные с необходимостью решения большого числа связанных (coupled) уравнений (в случае линейных динамических игр с квадратическим критерием — матричных уравнений Риккати).

    В связи с этим возникает необходимость в декомпозиции общей задачи определения оптимальных стратегий участников рынка на частные (локальные) задачи. Применительно к линейным динамическим играм с квадратическим критерием исследовались подходы, основанные на итерационной декомпозиции связанных матричных уравнений Риккати и решении локальных уравнений Риккати. В настоящей статье рассматривается более простой подход к итерационному определению равновесия по Нэшу – Курно в олигополии путем декомпозиции с использованием операционного исчисления (операторного метода).

    Предлагаемый подход основан на следующей процедуре. Виртуальный координатор, обладающий информацией о параметрах обратной функции спроса, формирует цены на перспективный период. Олигополисты при заданной фиксированной динамике цен определяют свои стратегии в соответствии с несколько измененным критерием оптимальности. Оптимальные объемы продукции олигополистов поступают к координатору, который на основе итерационного алгоритма корректирует динамику цены на предыдущем шаге.

    Предлагаемая процедура иллюстрируется на примере статической и динамической моделей рационального поведения участников олигополии, которые максимизируют чистую текущую стоимость (NPV).

    При использовании методов операционного исчисления (и, в частности, обратного Z-преобразования) найдены условия, при которых итерационная процедура приводит к равновесным уровням цены и объемов производства в случае линейных динамических игр как с квадратичными, так и с нелинейными (вогнутыми) критериями оптимизации.

    Рассмотренный подход использован применительно к примерам дуополии, триополии, дуополии на рынке с дифференцированным продуктом, дуополии с взаимодействующими олигополистами при линейной обратной функции спроса. Сопоставление результатов расчетов динамики цены и объемов производства олигополистов для рассмотренных примеров на основе связанных (coupled) уравнений матричных уравнений Риккати в Matlab, а также в соответствии с предложенным итерационным методом в широко доступной системе Excel показывает их практическую идентичность.

    Кроме того, применение предложенной итерационной процедуры проиллюстрировано на примере дуополии с нелинейной функцией спроса.

    Varshavsky L.E.
    Iterative decomposition methods in modelling the development of oligopolistic markets
    Computer Research and Modeling, 2025, v. 17, no. 6, pp. 1237-1256

    One of the principles of forming a competitive market environment is to create conditions for economic agents to implement Nash – Cournot optimal strategies. With the standard approach to determining Nash – Cournot optimal market strategies, economic agents must have complete information about the indicators and dynamic characteristics of all market participants. Which is not true.

    In this regard, to find Nash – Cournot optimal solutions in dynamic models, it is necessary to have a coordinator who has complete information about the participants. However, in the case of a large number of game participants, even if the coordinator has the necessary information, computational difficulties arise associated with the need to solve a large number of coupled equations (in the case of linear dynamic games — Riccati matrix equations).

    In this regard, there is a need to decompose the general problem of determining optimal strategies for market participants into private (local) problems. Approaches based on the iterative decomposition of coupled matrix Riccati equations and the solution of local Riccati equations were studied for linear dynamic games with a quadratic criterion. This article considers a simpler approach to the iterative determination of the Nash – Cournot equilibrium in an oligopoly, by decomposition using operational calculus (operator method).

    The proposed approach is based on the following procedure. A virtual coordinator, which has information about the parameters of the inverse demand function, forms prices for the prospective period. Oligopolists, given fixed price dynamics, determine their strategies in accordance with a slightly modified optimality criterion. The optimal volumes of production of the oligopolists are sent to the coordinator, who, based on the iterative algorithm, adjusts the price dynamics at the previous step.

    The proposed procedure is illustrated by the example of a static and dynamic model of rational behavior of oligopoly participants who maximize the net present value (NPV). Using the methods of operational calculus (and in particular, the inverse Z-transformation), conditions are found under which the iterative procedure leads to equilibrium levels of price and production volumes in the case of linear dynamic games with both quadratic and nonlinear (concave) optimization criteria.

    The approach considered is used in relation to examples of duopoly, triopoly, duopoly on the market with a differentiated product, duopoly with interacting oligopolists with a linear inverse demand function. Comparison of the results of calculating the dynamics of price and production volumes of oligopolists for the considered examples based on coupled equations of the matrix Riccati equations in Matlab (in the table — Riccati), as well as in accordance with the proposed iterative method in the widely available Excel system shows their practical identity.

    In addition, the application of the proposed iterative procedure is illustrated by the example of a duopoly with a nonlinear demand function.

  7. Ветчанин Е.В., Тененев В.А., Шаура А.С.
    Управление движением жесткого тела в вязкой жидкости
    Компьютерные исследования и моделирование, 2013, т. 5, № 4, с. 659-675

    Решена задача оптимального управления движением мобильного объекта с внешней жесткой оболочкой вдользаданной траектории в вязкой жидкости. Рассматриваемый мобильный робот обладает свойством самопродвижения. Самопродвижение осуществляется за счет возвратнопоступательных колебаний внутренней материальной точки. Оптимальное управление движением построено на основе системы нечеткого логического вывода Сугено. Для получения базы нечетких правил предложен подход, основанный на построении деревьев решений с помощью разработанного генетического алгоритма структурно-параметрического синтеза.

    Vetchanin E.V., Tenenev V.A., Shaura A.S.
    Motion control of a rigid body in viscous fluid
    Computer Research and Modeling, 2013, v. 5, no. 4, pp. 659-675

    We consider the optimal motion control problem for a mobile device with an external rigid shell moving along a prescribed trajectory in a viscous fluid. The mobile robot under consideration possesses the property of self-locomotion. Self-locomotion is implemented due to back-and-forth motion of an internal material point. The optimal motion control is based on the Sugeno fuzzy inference system. An approach based on constructing decision trees using the genetic algorithm for structural and parametric synthesis has been proposed to obtain the base of fuzzy rules.

    Просмотров за год: 2. Цитирований: 1 (РИНЦ).
  8. Elaraby A.E., Nechaevskiy A.V.
    An effective segmentation approach for liver computed tomography scans using fuzzy exponential entropy
    Компьютерные исследования и моделирование, 2021, т. 13, № 1, с. 195-202

    Accurate segmentation of liver plays important in contouring during diagnosis and the planning of treatment. Imaging technology analysis and processing are wide usage in medical diagnostics, and therapeutic applications. Liver segmentation referring to the process of automatic or semi-automatic detection of liver image boundaries. A major difficulty in segmentation of liver image is the high variability as; the human anatomy itself shows major variation modes. In this paper, a proposed approach for computed tomography (CT) liver segmentation is presented by combining exponential entropy and fuzzy c-partition. Entropy concept has been utilized in various applications in imaging computing domain. Threshold techniques based on entropy have attracted a considerable attention over the last years in image analysis and processing literatures and it is among the most powerful techniques in image segmentation. In the proposed approach, the computed tomography (CT) of liver is transformed into fuzzy domain and fuzzy entropies are defined for liver image object and background. In threshold selection procedure, the proposed approach considers not only the information of liver image background and object, but also interactions between them as the selection of threshold is done by find a proper parameter combination of membership function such that the total fuzzy exponential entropy is maximized. Differential Evolution (DE) algorithm is utilizing to optimize the exponential entropy measure to obtain image thresholds. Experimental results in different CT livers scan are done and the results demonstrate the efficient of the proposed approach. Based on the visual clarity of segmented images with varied threshold values using the proposed approach, it was observed that liver segmented image visual quality is better with the results higher level of threshold.

    Elaraby A.E., Nechaevskiy A.V.
    An effective segmentation approach for liver computed tomography scans using fuzzy exponential entropy
    Computer Research and Modeling, 2021, v. 13, no. 1, pp. 195-202

    Accurate segmentation of liver plays important in contouring during diagnosis and the planning of treatment. Imaging technology analysis and processing are wide usage in medical diagnostics, and therapeutic applications. Liver segmentation referring to the process of automatic or semi-automatic detection of liver image boundaries. A major difficulty in segmentation of liver image is the high variability as; the human anatomy itself shows major variation modes. In this paper, a proposed approach for computed tomography (CT) liver segmentation is presented by combining exponential entropy and fuzzy c-partition. Entropy concept has been utilized in various applications in imaging computing domain. Threshold techniques based on entropy have attracted a considerable attention over the last years in image analysis and processing literatures and it is among the most powerful techniques in image segmentation. In the proposed approach, the computed tomography (CT) of liver is transformed into fuzzy domain and fuzzy entropies are defined for liver image object and background. In threshold selection procedure, the proposed approach considers not only the information of liver image background and object, but also interactions between them as the selection of threshold is done by find a proper parameter combination of membership function such that the total fuzzy exponential entropy is maximized. Differential Evolution (DE) algorithm is utilizing to optimize the exponential entropy measure to obtain image thresholds. Experimental results in different CT livers scan are done and the results demonstrate the efficient of the proposed approach. Based on the visual clarity of segmented images with varied threshold values using the proposed approach, it was observed that liver segmented image visual quality is better with the results higher level of threshold.

  9. Плетнев Н.В., Двуреченский П.Е., Гасников А.В.
    Применение градиентных методов оптимизации для решения задачи Коши для уравнения Гельмгольца
    Компьютерные исследования и моделирование, 2022, т. 14, № 2, с. 417-444

    Статья посвящена изучению применения методов выпуклой оптимизации для решения задачи Коши для уравнения Гельмгольца, которая является некорректной, поскольку уравнение относится к эллиптическому типу. Задача Коши формулируется как обратная задача и сводится к задаче выпуклой оптимизации в гильбертовом пространстве. Оптимизируемый функционал и его градиент вычисляются с помощью решения краевых задач, которые, в свою очередь, корректны и могут быть приближенно решены стандартными численными методами, такими как конечно-разностные схемы и разложения в ряды Фурье. Экспериментально исследуются сходимость применяемого быстрого градиентного метода и качество получаемого таким образом решения. Эксперимент показывает, что ускоренный градиентный метод — метод подобных треугольников — сходится быстрее, чем неускоренный метод. Сформулированы и доказаны теоремы о вычислительной сложности полученных алгоритмов. Установлено, что разложения в ряды Фурье превосходят конечно-разностные схемы по скорости вычислений и улучшают качество получаемого решения. Сделана попытка использовать рестарты метода подобных треугольников после уменьшения невязки функционала вдвое. В этом случае сходимость не улучшается, что подтверждает отсутствие сильной выпуклости. Эксперименты показывают, что неточность вычислений более адекватно описывается аддитивной концепцией шума в оракуле первого порядка. Этот фактор ограничивает достижимое качество решения, но ошибка не накапливается. Полученные результаты показывают, что использование ускоренных градиентных методов оптимизации позволяет эффективно решать обратные задачи.

    Pletnev N.V., Dvurechensky P.E., Gasnikov A.V.
    Application of gradient optimization methods to solve the Cauchy problem for the Helmholtz equation
    Computer Research and Modeling, 2022, v. 14, no. 2, pp. 417-444

    The article is devoted to studying the application of convex optimization methods to solve the Cauchy problem for the Helmholtz equation, which is ill-posed since the equation belongs to the elliptic type. The Cauchy problem is formulated as an inverse problem and is reduced to a convex optimization problem in a Hilbert space. The functional to be optimized and its gradient are calculated using the solution of boundary value problems, which, in turn, are well-posed and can be approximately solved by standard numerical methods, such as finite-difference schemes and Fourier series expansions. The convergence of the applied fast gradient method and the quality of the solution obtained in this way are experimentally investigated. The experiment shows that the accelerated gradient method — the Similar Triangle Method — converges faster than the non-accelerated method. Theorems on the computational complexity of the resulting algorithms are formulated and proved. It is found that Fourier’s series expansions are better than finite-difference schemes in terms of the speed of calculations and improve the quality of the solution obtained. An attempt was made to use restarts of the Similar Triangle Method after halving the residual of the functional. In this case, the convergence does not improve, which confirms the absence of strong convexity. The experiments show that the inaccuracy of the calculations is more adequately described by the additive concept of the noise in the first-order oracle. This factor limits the achievable quality of the solution, but the error does not accumulate. According to the results obtained, the use of accelerated gradient optimization methods can be the way to solve inverse problems effectively.

  10. Игнатьев Н.А., Тулиев У.Ю.
    Семантическая структуризация текстовых документов на основе паттернов сущностей естественного языка
    Компьютерные исследования и моделирование, 2022, т. 14, № 5, с. 1185-1197

    Рассматривается технология создания паттернов из слов (понятий) естественного языка по текстовым данным в модели «мешок слов». Паттерны применяются для снижения размерности исходного пространства в описании документов и поиска семантически связанных слов по темам. Процесс снижения размерности реализуется через формирование по паттернам латентных признаков. Исследуется многообразие структур отношений документов для разбиения их на темы в латентном пространстве.

    Считается, что заданное множество документов (объектов) разделено на два непересекающихся класса, для анализа которых необходимо использовать общий словарь. Принадлежность слов к общему словарю изначально неизвестна. Объекты классов рассматриваются в ситуации оппозиции друг к другу. Количественные параметры оппозиционности определяются через значения устойчивости каждого признака и обобщенные оценки объектов по непересекающимся наборам признаков.

    Для вычисления устойчивости используются разбиения значений признаков на непересекающиеся интервалы, оптимальные границы которых определяются по специальному критерию. Максимум устойчивости достигается при условии, что в границах каждого интервала содержатся значения одного из двух классов.

    Состав признаков в наборах (паттернах из слов) формируется из упорядоченной по значениям устойчивости последовательности. Процесс формирования паттернов и латентных признаков на их основе реализуется по правилам иерархической агломеративной группировки.

    Набор латентных признаков используется для кластерного анализа документов по метрическим алгоритмам группировки. В процессе анализа применяется коэффициент контентной аутентичности на основе данных о принадлежности документов к классам. Коэффициент является численной характеристикой доминирования представителей классов в группах.

    Для разбиения документов на темы предложено использовать объединение групп по отношению их центров. В качестве закономерностей по каждой теме рассматривается упорядоченная по частоте встречаемости последовательность слов из общего словаря.

    Приводятся результаты вычислительного эксперимента на коллекциях авторефератов научных диссертаций. Сформированы последовательности слов из общего словаря по четырем темам.

    Ignatev N.A., Tuliev U.Y.
    Semantic structuring of text documents based on patterns of natural language entities
    Computer Research and Modeling, 2022, v. 14, no. 5, pp. 1185-1197

    The technology of creating patterns from natural language words (concepts) based on text data in the bag of words model is considered. Patterns are used to reduce the dimension of the original space in the description of documents and search for semantically related words by topic. The process of dimensionality reduction is implemented through the formation of patterns of latent features. The variety of structures of document relations is investigated in order to divide them into themes in the latent space.

    It is considered that a given set of documents (objects) is divided into two non-overlapping classes, for the analysis of which it is necessary to use a common dictionary. The belonging of words to a common vocabulary is initially unknown. Class objects are considered as opposition to each other. Quantitative parameters of oppositionality are determined through the values of the stability of each feature and generalized assessments of objects according to non-overlapping sets of features.

    To calculate the stability, the feature values are divided into non-intersecting intervals, the optimal boundaries of which are determined by a special criterion. The maximum stability is achieved under the condition that the boundaries of each interval contain values of one of the two classes.

    The composition of features in sets (patterns of words) is formed from a sequence ordered by stability values. The process of formation of patterns and latent features based on them is implemented according to the rules of hierarchical agglomerative grouping.

    A set of latent features is used for cluster analysis of documents using metric grouping algorithms. The analysis applies the coefficient of content authenticity based on the data on the belonging of documents to classes. The coefficient is a numerical characteristic of the dominance of class representatives in groups.

    To divide documents into topics, it is proposed to use the union of groups in relation to their centers. As patterns for each topic, a sequence of words ordered by frequency of occurrence from a common dictionary is considered.

    The results of a computational experiment on collections of abstracts of scientific dissertations are presented. Sequences of words from the general dictionary on 4 topics are formed.

Страницы: « первая предыдущая следующая последняя »

Журнал индексируется в Scopus

Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU

Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science

Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"

Международная Междисциплинарная Конференция МАТЕМАТИКА. КОМПЬЮТЕР. ОБРАЗОВАНИЕ.