Текущий выпуск Номер 2, 2025 Том 17

Все выпуски

Результаты поиска по 'information':
Найдено статей: 162
  1. Матюшкин И.В., Заплетина М.А.
    Обзор по тематике клеточных автоматов на базе современных отечественных публикаций
    Компьютерные исследования и моделирование, 2019, т. 11, № 1, с. 9-57

    Проведен анализ отечественных публикаций за 2013–2017 гг. включительно, посвященных клеточным автоматам (КА). Большая их часть связана с математическим моделированием. Наукометрическими графиками за 1990–2017 гг. доказана актуальность тематики. Обзор позволяет выделить персоналии и научные направления/школы в современной российской науке, выявить их оригинальность или вторичность по сравнению с мировым уровнем. За счет выбора национальной, а не мировой, базы публикаций обзор претендует на полноту (из 526 просмотренных ссылок научным значением обладают около 200).

    В приложении к обзору даются первичные сведения о КА — игра «Жизнь», теорема о садах Эдема, элементарные КА (вместе с диаграммой де Брюина), блочные КА Марголуса, КА с альтернацией. Причем акцентируется внимание на трех важных для моделирования семантиках КА — традициях фон Неймана, Цузе и Цетлина, а также показывается родство с концепциями нейронных сетей и сетей Петри. Выделены условные 10 работ по КА, с которыми должен быть знаком любой специалист по КА. Некоторые важные работы 1990-х гг. и более поздние перечислены во введении.

    Затем весь массив публикаций разбит на рубрики: «Модификации КА и другие сетевые модели» (29 %), «Математические свойства КА и связь с математикой» (5 %), «Аппаратные реализации» (3 %), «Программные реализации» (5 %), «Обработка данных, распознавание и криптография» (8 %), «Механика, физика и химия» (20 %), «Биология, экология и медицина» (15 %), «Экономика, урбанистика и социология» (15 %). В скобках указана доля тематики в массиве. Отмечается рост публикаций по КА в гуманитарной сфере, а также появление гибридных подходов, уводящих в сторону от классических КА.

    Matyushkin I.V., Zapletina M.A.
    Cellular automata review based on modern domestic publications
    Computer Research and Modeling, 2019, v. 11, no. 1, pp. 9-57

    The paper contains the analysis of the domestic publications issued in 2013–2017 years and devoted to cellular automata. The most of them concern on mathematical modeling. Scientometric schedules for 1990–2017 years have proved relevance of subject. The review allows to allocate the main personalities and the scientific directions/schools in modern Russian science, to reveal their originality or secondness in comparison with world science. Due to the authors choice of national publications basis instead of world, the paper claims the completeness and the fact is that about 200 items from the checked 526 references have an importance for science.

    In the Annex to the review provides preliminary information about CA — the Game of Life, a theorem about gardens of Eden, elementary CAs (together with the diagram of de Brujin), block Margolus’s CAs, alternating CAs. Attention is paid to three important for modeling semantic traditions of von Neumann, Zuse and Zetlin, as well as to the relationship with the concepts of neural networks and Petri nets. It is allocated conditional 10 works, which should be familiar to any specialist in CA. Some important works of the 1990s and later are listed in the Introduction.

    Then the crowd of publications is divided into categories: the modification of the CA and other network models (29 %), Mathematical properties of the CA and the connection with mathematics (5 %), Hardware implementation (3 %), Software implementation (5 %), Data Processing, recognition and Cryptography (8 %), Mechanics, physics and chemistry (20 %), Biology, ecology and medicine (15 %), Economics, urban studies and sociology (15 %). In parentheses the share of subjects in the array are indicated. There is an increase in publications on CA in the humanitarian sphere, as well as the emergence of hybrid approaches, leading away from the classic CA definition.

    Просмотров за год: 58.
  2. Алкуса М.С.
    О некоторых стохастических методах зеркального спуска для условных задач онлайн-оптимизации
    Компьютерные исследования и моделирование, 2019, т. 11, № 2, с. 205-217

    Задача выпуклой онлайн-оптимизации естественно возникают в случаях, когда имеет место обновления статистической информации. Для задач негладкой оптимизации хорошо известен метод зеркального спуска. Зеркальный спуск — это расширение субградиентного метода для решения негладких выпуклых задач оптимизации на случай неевкидова расстояния. Работа посвящена стохастическим аналогам недавно предложенных методов зеркального спуска для задач выпуклой онлайн-оптимизации с выпуклыми липшицевыми (вообще говоря, негладкими) функциональными ограничениями. Это означает, что вместо (суб)градиента целевого функционала и функционального ограничения мы используем их стохастические (суб)градиенты. Точнее говоря, допустим, что на замкнутом подмножестве $n$-мерного векторного пространства задано $N$ выпуклых липшицевых негладких функционалов. Рассматривается задача минимизации среднего арифметического этих функционалов с выпуклым липшицевым ограничением. Предложены два метода для решения этой задачи с использованием стохастических (суб)градиентов: адаптивный (не требует знания констант Липшица ни для целевого функционала, ни для ограничения), а также неадаптивный (требует знания константы Липшица для целевого функционала и ограничения). Отметим, что разрешено вычислять стохастический (суб)градиент каждого целевого функционала только один раз. В случае неотрицательного регрета мы находим, что количество непродуктивных шагов равно $O$($N$), что указывает на оптимальность предложенных методов. Мы рассматриваем произвольную прокс-структуру, что существенно для задач принятия решений. Приведены результаты численных экспериментов, позволяющие сравнить работу адаптивного и неадаптивного методов для некоторых примеров. Показано, что адаптивный метод может позволить существенно улучшить количество найденного решения.

    Alkousa M.S.
    On some stochastic mirror descent methods for constrained online optimization problems
    Computer Research and Modeling, 2019, v. 11, no. 2, pp. 205-217

    The problem of online convex optimization naturally occurs in cases when there is an update of statistical information. The mirror descent method is well known for non-smooth optimization problems. Mirror descent is an extension of the subgradient method for solving non-smooth convex optimization problems in the case of a non-Euclidean distance. This paper is devoted to a stochastic variant of recently proposed Mirror Descent methods for convex online optimization problems with convex Lipschitz (generally, non-smooth) functional constraints. This means that we can still use the value of the functional constraint, but instead of (sub)gradient of the objective functional and the functional constraint, we use their stochastic (sub)gradients. More precisely, assume that on a closed subset of $n$-dimensional vector space, $N$ convex Lipschitz non-smooth functionals are given. The problem is to minimize the arithmetic mean of these functionals with a convex Lipschitz constraint. Two methods are proposed, for solving this problem, using stochastic (sub)gradients: adaptive method (does not require knowledge of Lipschitz constant neither for the objective functional, nor for the functional of constraint) and non-adaptivemethod (requires knowledge of Lipschitz constant for the objective functional and the functional of constraint). Note that it is allowed to calculate the stochastic (sub)gradient of each functional only once. In the case of non-negative regret, we find that the number of non-productive steps is $O$($N$), which indicates the optimality of the proposed methods. We consider an arbitrary proximal structure, which is essential for decisionmaking problems. The results of numerical experiments are presented, allowing to compare the work of adaptive and non-adaptive methods for some examples. It is shown that the adaptive method can significantly improve the number of the found solutions.

    Просмотров за год: 42.
  3. Fasondini M., Hale N., Spoerer R., Weideman J.A.C.
    Quadratic Padé Approximation: Numerical Aspects and Applications
    Компьютерные исследования и моделирование, 2019, т. 11, № 6, с. 1017-1031

    Padé approximation is a useful tool for extracting singularity information from a power series. A linear Padé approximant is a rational function and can provide estimates of pole and zero locations in the complex plane. A quadratic Padé approximant has square root singularities and can, therefore, provide additional information such as estimates of branch point locations. In this paper, we discuss numerical aspects of computing quadratic Padé approximants as well as some applications. Two algorithms for computing the coefficients in the approximant are discussed: a direct method involving the solution of a linear system (well-known in the mathematics community) and a recursive method (well-known in the physics community). We compare the accuracy of these two methods when implemented in floating-point arithmetic and discuss their pros and cons. In addition, we extend Luke’s perturbation analysis of linear Padé approximation to the quadratic case and identify the problem of spurious branch points in the quadratic approximant, which can cause a significant loss of accuracy. A possible remedy for this problem is suggested by noting that these troublesome points can be identified by the recursive method mentioned above. Another complication with the quadratic approximant arises in choosing the appropriate branch. One possibility, which is to base this choice on the linear approximant, is discussed in connection with an example due to Stahl. It is also known that the quadratic method is capable of providing reasonable approximations on secondary sheets of the Riemann surface, a fact we illustrate here by means of an example. Two concluding applications show the superiority of the quadratic approximant over its linear counterpart: one involving a special function (the Lambert $W$-function) and the other a nonlinear PDE (the continuation of a solution of the inviscid Burgers equation into the complex plane).

    Ключевые слова: Padé, approximation, numerical singularity detection.
    Fasondini M., Hale N., Spoerer R., Weideman J.A.C.
    Quadratic Padé Approximation: Numerical Aspects and Applications
    Computer Research and Modeling, 2019, v. 11, no. 6, pp. 1017-1031

    Padé approximation is a useful tool for extracting singularity information from a power series. A linear Padé approximant is a rational function and can provide estimates of pole and zero locations in the complex plane. A quadratic Padé approximant has square root singularities and can, therefore, provide additional information such as estimates of branch point locations. In this paper, we discuss numerical aspects of computing quadratic Padé approximants as well as some applications. Two algorithms for computing the coefficients in the approximant are discussed: a direct method involving the solution of a linear system (well-known in the mathematics community) and a recursive method (well-known in the physics community). We compare the accuracy of these two methods when implemented in floating-point arithmetic and discuss their pros and cons. In addition, we extend Luke’s perturbation analysis of linear Padé approximation to the quadratic case and identify the problem of spurious branch points in the quadratic approximant, which can cause a significant loss of accuracy. A possible remedy for this problem is suggested by noting that these troublesome points can be identified by the recursive method mentioned above. Another complication with the quadratic approximant arises in choosing the appropriate branch. One possibility, which is to base this choice on the linear approximant, is discussed in connection with an example due to Stahl. It is also known that the quadratic method is capable of providing reasonable approximations on secondary sheets of the Riemann surface, a fact we illustrate here by means of an example. Two concluding applications show the superiority of the quadratic approximant over its linear counterpart: one involving a special function (the Lambert $W$-function) and the other a nonlinear PDE (the continuation of a solution of the inviscid Burgers equation into the complex plane).

  4. Гайко В.А., Савин С.И., Климчик А.С.
    Глобальные бифуркации предельных циклов полиномиальной системы Эйлера–Лагранжа–Льенара
    Компьютерные исследования и моделирование, 2020, т. 12, № 4, с. 693-705

    В данной статье, используя наш бифуркационно-геометрический подход, мы изучаем глобальную динамику и решаем проблему о максимальном числе и распределении предельных циклов (автоколебательных режимов, соответствующих состояниям динамического равновесия) в планарной полиномиальной механической системе типа Эйлера–Лагранжа–Льенара. Такие системы используются также для моделирования электротехнических, экологических, биомедицинских и других систем, что значительно облегчает исследование соответствующих реальных процессов и систем со сложной внутренней динамикой. Они используется, в частности, в механических системах с демпфированием и жесткостью. Существует ряд примеров технических систем, которые описываются с помощью квадратичного демпфирования в динамических моделях второго порядка. В робототехнике, например, квадратичное демпфирование появляется при управлении с прямой связью и в нелинейных устройствах, таких как приводы с переменным импедансом (сопротивлением). Приводы с переменным сопротивлением представляют особый интерес для совместной робототехники. Для исследования характера и расположения особых точек в фазовой плоскости полиномиальной системы Эйлера–Лагранжа–Льенара используется разработанный нами метод, смысл которого состоит в том, чтобы получить простейшую (хорошо известную) систему путем обращения в нуль некоторых параметров (обычно параметров, поворачивающих поле) исходной системы, а затем последовательно вводить эти параметры, изучая динамику особых точек в фазовой плоскости. Для исследования особых точек системы мы используем классические теоремы Пуанкаре об индексе, а также наш оригинальный геометрический подход, основанный на применении метода двух изоклин Еругина, что особенно эффективно при исследовании бесконечно удаленных особых точек. Используя полученную информацию об особых точках и применяя канонические системы с параметрами, поворачивающими векторное поле, а также используя геометрические свойства спиралей, заполняющих внутренние и внешние области предельных циклов, и применяя наш геометрический подход к качественному анализу, мы изучаем бифуркации предельных циклов рассматриваемой системы.

    Gaiko V.A., Savin S.I., Klimchik A.S.
    Global limit cycle bifurcations of a polynomial Euler–Lagrange–Liénard system
    Computer Research and Modeling, 2020, v. 12, no. 4, pp. 693-705

    In this paper, using our bifurcation-geometric approach, we study global dynamics and solve the problem of the maximum number and distribution of limit cycles (self-oscillating regimes corresponding to states of dynamical equilibrium) in a planar polynomial mechanical system of the Euler–Lagrange–Liйnard type. Such systems are also used to model electrical, ecological, biomedical and other systems, which greatly facilitates the study of the corresponding real processes and systems with complex internal dynamics. They are used, in particular, in mechanical systems with damping and stiffness. There are a number of examples of technical systems that are described using quadratic damping in second-order dynamical models. In robotics, for example, quadratic damping appears in direct-coupled control and in nonlinear devices, such as variable impedance (resistance) actuators. Variable impedance actuators are of particular interest to collaborative robotics. To study the character and location of singular points in the phase plane of the Euler–Lagrange–Liйnard polynomial system, we use our method the meaning of which is to obtain the simplest (well-known) system by vanishing some parameters (usually, field rotation parameters) of the original system and then to enter sequentially these parameters studying the dynamics of singular points in the phase plane. To study the singular points of the system, we use the classical Poincarй index theorems, as well as our original geometric approach based on the application of the Erugin twoisocline method which is especially effective in the study of infinite singularities. Using the obtained information on the singular points and applying canonical systems with field rotation parameters, as well as using the geometric properties of the spirals filling the internal and external regions of the limit cycles and applying our geometric approach to qualitative analysis, we study limit cycle bifurcations of the system under consideration.

  5. Божко А.Н.
    Моделирование процессов разборки сложных изделий
    Компьютерные исследования и моделирование, 2022, т. 14, № 3, с. 525-537

    Работа посвящена моделированию процессов разборки сложных изделий в системах автоматизированного проектирования. Возможность демонтажа изделия в заданной последовательности формируется на ранних этапах проектирования, а реализуется в конце жизненного цикла. Поэтому современные системы автоматизированного проектирования должны иметь инструменты для оценки сложности демонтажа деталей и сборочных единиц. Предложена гиперграфовая модель механической структуры изделия. Показано, что математическим описанием когерентных и секвенциальных операций разборки является нормальное разрезание ребра гиперграфа. Доказана теорема о свойствах нормальных разрезаний. Данная теорема позволяет организовать простую рекурсивную процедуру генерации всех разрезаний гиперграфа. Множество всех разрезаний представляется в виде И–ИЛИ-дерева. Дерево содержит информацию о планах разборки изделия и его частей. Предложены математические описания процессов разборки различного типа: полной, неполной, линейной, нелинейной. Показано, что решающий граф И–ИЛИ-дерева представляет собой модель разборки изделия и всех его составных частей, полученных в процессе демонтажа. Рассмотрена важная характеристика сложности демонтажа деталей — глубина вложения. Разработан способ эффективного расчета оценки снизу данной характеристики.

    Bozhko A.N.
    Modeling of disassembly processes of complex products
    Computer Research and Modeling, 2022, v. 14, no. 3, pp. 525-537

    The work is devoted to modeling the processes of disassembling complex products in CADsystems. The ability to dismantle a product in a given sequence is formed at the early design stages, and is implemented at the end of the life cycle. Therefore, modern CAD-systems should have tools for assessing the complexity of dismantling parts and assembly units of a product. A hypergraph model of the mechanical structure of the product is proposed. It is shown that the mathematical description of coherent and sequential disassembly operations is the normal cutting of the edge of the hypergraph. A theorem on the properties of normal cuts is proved. This theorem allows us to organize a simple recursive procedure for generating all cuts of the hypergraph. The set of all cuts is represented as an AND/OR-tree. The tree contains information about plans for disassembling the product and its parts. Mathematical descriptions of various types of disassembly processes are proposed: complete, incomplete, linear, nonlinear. It is shown that the decisive graph of the AND/OR-tree is a model of disassembling the product and all its components obtained in the process of dismantling. An important characteristic of the complexity of dismantling parts is considered — the depth of nesting. A method of effective calculation of the estimate from below has been developed for this characteristic.

  6. Бергер А.И., Гуда С.А.
    Свойства алгоритмов поиска оптимальных порогов для задач многозначной классификации
    Компьютерные исследования и моделирование, 2022, т. 14, № 6, с. 1221-1238

    Модели многозначной классификации возникают в различных сферах современной жизни, что объясняется всё большим количеством информации, требующей оперативного анализа. Одним из математических методов решения этой задачи является модульный метод, на первом этапе которого для каждого класса строится некоторая ранжирующая функция, упорядочивающая некоторым образом все объекты, а на втором этапе для каждого класса выбирается оптимальное значение порога, объекты с одной стороны которого относят к текущему классу, а с другой — нет. Пороги подбираются так, чтобы максимизировать целевую метрику качества. Алгоритмы, свойства которых изучаются в настоящей статье, посвящены второму этапу модульного подхода — выбору оптимального вектора порогов. Этот этап становится нетривиальным в случае использования в качестве целевой метрики качества $F$-меры от средней точности и полноты, так как она не допускает независимую оптимизацию порога в каждом классе. В задачах экстремальной многозначной классификации число классов может достигать сотен тысяч, поэтому исходная оптимизационная задача сводится к задаче поиска неподвижной точки специальным образом введенного отображения $\boldsymbol V$, определенного на единичном квадрате на плоскости средней точности $P$ и полноты $R$. Используя это отображение, для оптимизации предлагаются два алгоритма: метод линеаризации $F$-меры и метод анализа области определения отображения $\boldsymbol V$. На наборах данных многозначной классификации разного размера и природы исследуются свойства алгоритмов, в частности зависимость погрешности от числа классов, от параметра $F$-меры и от внутренних параметров методов. Обнаружена особенность работы обоих алгоритмов для задач с областью определения отображения $\boldsymbol V$, содержащей протяженные линейные участки границ. В случае когда оптимальная точка расположена в окрестности этих участков, погрешности обоих методов не уменьшаются с увеличением количества классов. При этом метод линеаризации достаточно точно определяет аргумент оптимальной точки, а метод анализа области определения отображения $\boldsymbol V$ — полярный радиус.

    Berger A.I., Guda S.A.
    Optimal threshold selection algorithms for multi-label classification: property study
    Computer Research and Modeling, 2022, v. 14, no. 6, pp. 1221-1238

    Multi-label classification models arise in various areas of life, which is explained by an increasing amount of information that requires prompt analysis. One of the mathematical methods for solving this problem is a plug-in approach, at the first stage of which, for each class, a certain ranking function is built, ordering all objects in some way, and at the second stage, the optimal thresholds are selected, the objects on one side of which are assigned to the current class, and on the other — to the other. Thresholds are chosen to maximize the target quality measure. The algorithms which properties are investigated in this article are devoted to the second stage of the plug-in approach which is the choice of the optimal threshold vector. This step becomes non-trivial if the $F$-measure of average precision and recall is used as the target quality assessment since it does not allow independent threshold optimization in each class. In problems of extreme multi-label classification, the number of classes can reach hundreds of thousands, so the original optimization problem is reduced to the problem of searching a fixed point of a specially introduced transformation $\boldsymbol V$, defined on a unit square on the plane of average precision $P$ and recall $R$. Using this transformation, two algorithms are proposed for optimization: the $F$-measure linearization method and the method of $\boldsymbol V$ domain analysis. The properties of algorithms are studied when applied to multi-label classification data sets of various sizes and origin, in particular, the dependence of the error on the number of classes, on the $F$-measure parameter, and on the internal parameters of methods under study. The peculiarity of both algorithms work when used for problems with the domain of $\boldsymbol V$, containing large linear boundaries, was found. In case when the optimal point is located in the vicinity of these boundaries, the errors of both methods do not decrease with an increase in the number of classes. In this case, the linearization method quite accurately determines the argument of the optimal point, while the method of $\boldsymbol V$ domain analysis — the polar radius.

  7. Антонов И.В., Бруттан Ю.В.
    Синтез структуры организованных систем как центральная проблема эволюционной кибернетики
    Компьютерные исследования и моделирование, 2023, т. 15, № 5, с. 1103-1124

    В статье рассматриваются подходы к эволюционному моделированию синтеза организованных систем и анализируются методологические проблемы эволюционных вычислений этого направления. На основе анализа работ по эволюционной кибернетике, теории эволюции, теории систем и синергетике сделан вывод о наличии открытых проблем в задачах формализации синтеза организованных систем и моделирования их эволюции. Показано, что теоретической основой для практики эволюционного моделирования являются положения синтетической теории эволюции. Рассмотрено использование виртуальной вычислительной среды для машинного синтеза алгоритмов решения задач. На основе полученных в процессе моделирования результатов сделан вывод о наличии ряда условий, принципиально ограничивающих применимость методов генетического программирования в задачах синтеза функциональных структур. К основным ограничениям относятся необходимость для фитнес-функции отслеживать поэтапное приближение к решению задачи и неприменимость данного подхода к задачам синтеза иерархически организованных систем. Отмечено, что результаты, полученные в практике эволюционного моделирования в целом за все время его существования, подтверждают вывод о принципиальной ограниченности возможностей генетического программирования при решении задач синтеза структуры организованных систем. В качестве источников принципиальных трудностей для машинного синтеза системных структур указаны отсутствие направлений для градиентного спуска при структурном синтезе и отсутствие закономерности случайного появления новых организованных структур. Сделан вывод об актуальности рассматриваемых проблем для теории биологической эволюции. Обосновано положение о биологической специфике практически возможных путей синтеза структуры организованных систем. В качестве теоретической интерпретации обсуждаемой проблемы предложено рассматривать системно-эволюционную концепцию П.К. Анохина. Процесс синтеза функциональных структур рассматривается в этом контексте как адаптивная реакция организмов на внешние условия, основанная на их способности к интегративному синтезу памяти, потребностей и информации о текущих условиях. Приведены результаты актуальных исследований, свидетельствующие в пользу данной интерпретации. Отмечено, что физические основы биологической интегративности могут быть связаны с явлениями нелокальности и несепарабельности, характерными для квантовых систем. Отмечена связь рассматриваемой в данной работе проблематики с проблемой создания сильного искусственного интеллекта.

    Antonov I.V., Bruttan I.V.
    Synthesis of the structure of organised systems as central problem of evolutionary cybernetics
    Computer Research and Modeling, 2023, v. 15, no. 5, pp. 1103-1124

    The article provides approaches to evolutionary modelling of synthesis of organised systems and analyses methodological problems of evolutionary computations of this kind. Based on the analysis of works on evolutionary cybernetics, evolutionary theory, systems theory and synergetics, we conclude that there are open problems in formalising the synthesis of organised systems and modelling their evolution. The article emphasises that the theoretical basis for the practice of evolutionary modelling is the principles of the modern synthetic theory of evolution. Our software project uses a virtual computing environment for machine synthesis of problem solving algorithms. In the process of modelling, we obtained the results on the basis of which we conclude that there are a number of conditions that fundamentally limit the applicability of genetic programming methods in the tasks of synthesis of functional structures. The main limitations are the need for the fitness function to track the step-by-step approach to the solution of the problem and the inapplicability of this approach to the problems of synthesis of hierarchically organised systems. We note that the results obtained in the practice of evolutionary modelling in general for the whole time of its existence, confirm the conclusion the possibilities of genetic programming are fundamentally limited in solving problems of synthesizing the structure of organized systems. As sources of fundamental difficulties for machine synthesis of system structures the article points out the absence of directions for gradient descent in structural synthesis and the absence of regularity of random appearance of new organised structures. The considered problems are relevant for the theory of biological evolution. The article substantiates the statement about the biological specificity of practically possible ways of synthesis of the structure of organised systems. As a theoretical interpretation of the discussed problem, we propose to consider the system-evolutionary concept of P.K.Anokhin. The process of synthesis of functional structures in this context is an adaptive response of organisms to external conditions based on their ability to integrative synthesis of memory, needs and information about current conditions. The results of actual studies are in favour of this interpretation. We note that the physical basis of biological integrativity may be related to the phenomena of non-locality and non-separability characteristic of quantum systems. The problems considered in this paper are closely related to the problem of creating strong artificial intelligence.

  8. Свириденко А.Б.
    Оценка числа итераций для сильно полиномиальных алгоритмов линейного программирования
    Компьютерные исследования и моделирование, 2024, т. 16, № 2, с. 249-285

    Рассматривается прямой алгоритм решения задачи линейного программирования (ЛП), заданной в каноническом виде. Алгоритм состоит из двух последовательных этапов, на которых прямым методом решаются приведенные ниже задачи ЛП: невырожденная вспомогательная задача (на первом этапе) и некоторая задача, равносильная исходной (на втором). В основе построения вспомогательной задачи лежит мультипликативный вариант метода исключения Гаусса, в самой структуре которого заложены возможности: идентификации несовместности и линейной зависимости ограничений; идентификации переменных, оптимальные значения которых заведомо равны нулю; фактического исключения прямых переменных и сокращения размерности пространства, в котором определено решение исходной задачи. В процессе фактического исключения переменных алгоритм генерирует последовательность мультипликаторов, главные строки которых формируют матрицу ограничений вспомогательной задачи, причем возможность минимизация заполнения главных строк мультипликаторов заложена в самой структуре прямых методов. При этом отсутствует необходимость передачи информации (базис, план и оптимальное значение целевой функции) на второй этап алгоритма и применения одного из способов устранения зацикливания для гарантии конечной сходимости.

    Представлены два варианта алгоритма решения вспомогательной задачи в сопряженной канонической форме. Первый основан на ее решении прямым алгоритмом в терминах симплекс-метода, а второй — на решении задачи, двойственной к ней, симплекс-методом. Показано, что оба варианта алгоритма для одинаковых исходных данных (входов) генерируют одинаковую последовательность точек: базисное решение и текущее двойственное решение вектора оценок строк. Отсюда сделан вывод, что прямой алгоритм — это алгоритм типа симплекс-метода. Также показано, что сравнение вычислительных схем приводит к выводу, что прямой алгоритм позволяет уменьшить по кубическому закону число арифметических операций, необходимых для решения вспомогательной задачи, по сравнению с симплекс-методом. Приводится оценка числа итераций.

    Sviridenko A.B.
    The iterations’ number estimation for strongly polynomial linear programming algorithms
    Computer Research and Modeling, 2024, v. 16, no. 2, pp. 249-285

    A direct algorithm for solving a linear programming problem (LP), given in canonical form, is considered. The algorithm consists of two successive stages, in which the following LP problems are solved by a direct method: a non-degenerate auxiliary problem at the first stage and some problem equivalent to the original one at the second. The construction of the auxiliary problem is based on a multiplicative version of the Gaussian exclusion method, in the very structure of which there are possibilities: identification of incompatibility and linear dependence of constraints; identification of variables whose optimal values are obviously zero; the actual exclusion of direct variables and the reduction of the dimension of the space in which the solution of the original problem is determined. In the process of actual exclusion of variables, the algorithm generates a sequence of multipliers, the main rows of which form a matrix of constraints of the auxiliary problem, and the possibility of minimizing the filling of the main rows of multipliers is inherent in the very structure of direct methods. At the same time, there is no need to transfer information (basis, plan and optimal value of the objective function) to the second stage of the algorithm and apply one of the ways to eliminate looping to guarantee final convergence.

    Two variants of the algorithm for solving the auxiliary problem in conjugate canonical form are presented. The first one is based on its solution by a direct algorithm in terms of the simplex method, and the second one is based on solving a problem dual to it by the simplex method. It is shown that both variants of the algorithm for the same initial data (inputs) generate the same sequence of points: the basic solution and the current dual solution of the vector of row estimates. Hence, it is concluded that the direct algorithm is an algorithm of the simplex method type. It is also shown that the comparison of numerical schemes leads to the conclusion that the direct algorithm allows to reduce, according to the cubic law, the number of arithmetic operations necessary to solve the auxiliary problem, compared with the simplex method. An estimate of the number of iterations is given.

  9. Полосин В.Г.
    Квантильные меры формы для распределений с тяжелыми хвостами
    Компьютерные исследования и моделирование, 2024, т. 16, № 5, с. 1041-1077

    Современная литература содержит многочисленные примеры применения распределений с тяжелыми хвостами для прикладных исследований сложных систем. Моделирование экстремальных данных обычно ограничено небольшим набором форм распределений, которые исторически применяются в данной области прикладных исследований. Расширение набора форм возможно посредством сопоставления мер форм распределений. В работе на примере бета-распределения второго рода показано, что неопределенность моментов тяжелохвостых бета-распределений ограничивает применимость классических методов моментов для исследования их форм. На данном этапе сохраняется актуальность построения методов сопоставления распределений с помощью квантильных мер формы, которые освобождены от ограничений на параметры формы. Цель работы состоит в компьютерном исследовании возможности построения пространства квантильных мер форм для проведения сравнения распределений с тяжелыми хвостами. На основе компьютерного моделирования проводится картирование реализаций распределений в пространстве параметрических, квантильных и информационных мер формы. Картирование распределений в пространстве только параметрических мер формы показало, что наложение множества распределений с тяжелыми хвостами в пространстве квантильных мер асимметрии и эксцесса не позволяет сопоставить формы распределений, принадлежащие разным типам распределений. Хорошо известно, что информационные меры содержат дополнительную информацию о мере формы распределений. В работе предложен квантильный коэффициент энтропии в качестве дополнительной независимой меры формы, построенной на отношении интервалов энтропийной и квантильной неопределенностей. На примере логнормального распределения и распределения Парето иллюстрируются возможности сравнения форм распределений с реализациями бета-распределения второго рода. В частности показано, что, несмотря на близость положений форм в трехмерном пространстве, формы реализаций логнормального распределения отсутствуют среди реализаций бета-распределения второго рода. Картирование положения устойчивых распределений в трехмерном пространстве квантильных мер форм позволило оценить параметры формы бета-распределения второго рода, для которого форма наиболее близка к форме распределения Леви. Из материала статьи следует, что отображение распределений в трехмерном пространстве квантильных мер форм значительно расширяет возможность сравнения форм для распределений с тяжелыми хвостами.

    Polosin V.G.
    Quantile shape measures for heavy-tailed distributions
    Computer Research and Modeling, 2024, v. 16, no. 5, pp. 1041-1077

    Currently, journal papers contain numerous examples of the use of heavy-tailed distributions for applied research on various complex systems. Models of extreme data are usually limited to a small set of distribution shapes that in this field of applied research historically been used. It is possible to increase the composition of the set of probability distributions shapes through comparing the measures of the distribution shapes and choosing the most suitable implementations. The example of a beta distribution of the second kind shown that the lack of definability of the moments of heavy-tailed implementations of the beta family of distributions limits the applicability of the existing classical methods of moments for studying the distributions shapes when are characterized heavy tails. For this reason, the development of new methods for comparing distributions based on quantile shape measures free from the restrictions on the shape parameters remains relevant study the possibility of constructing a space of quantile measures of shapes for comparing distributions with heavy tails. The operation purpose consists in computer research of creation possibility of space of the quantile’s measures for the comparing of distributions property with heavy tails. On the basis of computer simulation there the distributions implementations in measures space of shapes were been shown. Mapping distributions in space only of the parametrical measures of shapes has shown that the imposition of regions for heavy tails distribution made impossible compare the shape of distributions belonging to different type in the space of quantile measures of skewness and kurtosis. It is well known that shape information measures such as entropy and entropy uncertainty interval contain additional information about the shape measure of heavy-tailed distributions. In this paper, a quantile entropy coefficient is proposed as an additional independent measure of shape, which is based on the ratio of entropy and quantile uncertainty intervals. Also estimates of quantile entropy coefficients are obtained for a number of well-known heavy-tailed distributions. The possibility of comparing the distributions shapes with realizations of the beta distribution of the second kind is illustrated by the example of the lognormal distribution and the Pareto distribution. Due to mapping the position of stable distributions in the three-dimensional space of quantile measures of shapes estimate made it possible the shape parameters to of the beta distribution of the second kind, for which shape is closest to the Lévy shape. From the paper material it follows that the display of distributions in the three-dimensional space of quantile measures of the forms of skewness, kurtosis and entropy coefficient significantly expands the possibility of comparing the forms for distributions with heavy tails.

  10. Adekotujo A.S., Enikuomehin T., Aribisala B., Mazzara M., Zubair A.F.
    Computational treatment of natural language text for intent detection
    Компьютерные исследования и моделирование, 2024, т. 16, № 7, с. 1539-1554

    Intent detection plays a crucial role in task-oriented conversational systems. To understand the user’s goal, the system relies on its intent detector to classify the user’s utterance, which may be expressed in different forms of natural language, into intent classes. However, lack of data, and the efficacy of intent detection systems has been hindered by the fact that the user’s intent text is typically characterized by short, general sentences and colloquial expressions. The process of algorithmically determining user intent from a given statement is known as intent detection. The goal of this study is to develop an intent detection model that will accurately classify and detect user intent. The model calculates the similarity score of the three models used to determine their similarities. The proposed model uses Contextual Semantic Search (CSS) capabilities for semantic search, Latent Dirichlet Allocation (LDA) for topic modeling, the Bidirectional Encoder Representations from Transformers (BERT) semantic matching technique, and the combination of LDA and BERT for text classification and detection. The dataset acquired is from the broad twitter corpus (BTC) and comprises various meta data. To prepare the data for analysis, a pre-processing step was applied. A sample of 1432 instances were selected out of the 5000 available datasets because manual annotation is required and could be time-consuming. To compare the performance of the model with the existing model, the similarity scores, precision, recall, f1 score, and accuracy were computed. The results revealed that LDA-BERT achieved an accuracy of 95.88% for intent detection, BERT with an accuracy of 93.84%, and LDA with an accuracy of 92.23%. This shows that LDA-BERT performs better than other models. It is hoped that the novel model will aid in ensuring information security and social media intelligence. For future work, an unsupervised LDA-BERT without any labeled data can be studied with the model.

    Adekotujo A.S., Enikuomehin T., Aribisala B., Mazzara M., Zubair A.F.
    Computational treatment of natural language text for intent detection
    Computer Research and Modeling, 2024, v. 16, no. 7, pp. 1539-1554

    Intent detection plays a crucial role in task-oriented conversational systems. To understand the user’s goal, the system relies on its intent detector to classify the user’s utterance, which may be expressed in different forms of natural language, into intent classes. However, lack of data, and the efficacy of intent detection systems has been hindered by the fact that the user’s intent text is typically characterized by short, general sentences and colloquial expressions. The process of algorithmically determining user intent from a given statement is known as intent detection. The goal of this study is to develop an intent detection model that will accurately classify and detect user intent. The model calculates the similarity score of the three models used to determine their similarities. The proposed model uses Contextual Semantic Search (CSS) capabilities for semantic search, Latent Dirichlet Allocation (LDA) for topic modeling, the Bidirectional Encoder Representations from Transformers (BERT) semantic matching technique, and the combination of LDA and BERT for text classification and detection. The dataset acquired is from the broad twitter corpus (BTC) and comprises various meta data. To prepare the data for analysis, a pre-processing step was applied. A sample of 1432 instances were selected out of the 5000 available datasets because manual annotation is required and could be time-consuming. To compare the performance of the model with the existing model, the similarity scores, precision, recall, f1 score, and accuracy were computed. The results revealed that LDA-BERT achieved an accuracy of 95.88% for intent detection, BERT with an accuracy of 93.84%, and LDA with an accuracy of 92.23%. This shows that LDA-BERT performs better than other models. It is hoped that the novel model will aid in ensuring information security and social media intelligence. For future work, an unsupervised LDA-BERT without any labeled data can be studied with the model.

Страницы: предыдущая следующая последняя »

Журнал индексируется в Scopus

Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU

Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science

Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"

Международная Междисциплинарная Конференция МАТЕМАТИКА. КОМПЬЮТЕР. ОБРАЗОВАНИЕ.