Текущий выпуск Номер 1, 2025 Том 17

Все выпуски

Результаты поиска по 'memory':
Найдено статей: 52
  1. Котлярова Е.В., Гасников А.В., Гасникова Е.В., Ярмошик Д.В.
    Поиск равновесий в двухстадийных моделях распределения транспортных потоков по сети
    Компьютерные исследования и моделирование, 2021, т. 13, № 2, с. 365-379

    В работе описывается двухстадийная модель равновесного распределения транспортных потоков. Модель состоит из двух блоков, где первый блок — модель расчета матрицы корреспонденций, а второй блок — модель равновесного распределения транспортных потоков по путям. Первая модель, используя матрицу транспортных затрат (затраты на перемещение из одного района в другой, в данном случае — время), рассчитывает матрицу корреспонденций, описывающую потребности в объемах передвижения из одного района в другой район. Для решения этой задачи предлагается использовать один из наиболее популярных в урбанистике способов расчета матрицы корреспонценций — энтропийную модель. Вторая модель на базе равновесного принципа Нэша–Вардропа (каждый водитель выбирает кратчайший для себя путь) описывает, как именно потребности в перемещениях, задаваемые матрицей корреспонденций, распределяются по возможным путям. Таким образом, зная способы распределения потоков по путям, можно рассчитать матрицу затрат. Равновесием в двухстадийной модели транспортных потоков называют неподвижную точку цепочки из этих двух моделей. Практически ранее отмеченную задачу поиска неподвижной точки решали методом простых итераций. К сожалению, на данный момент вопрос сходимости и оценки скорости сходимости для этого метода не изучен. Кроме того, при численной реализации алгоритма возникает множество проблем. В частности, при неудачном выборе точки старта возникают ситуации, в которых алгоритм требует вычисления экстремально больших чисел и превышает размер доступной памяти даже в самых современных вычислительных машинах. Поэтому в статье предложены способ сведения задачи поиска описанного равновесия к задаче выпуклой негладкой оптимизации и численный способ решения полученной задачи оптимизации. Для обоих методов решения задачи были проведены численные эксперименты. Авторами использовались данные для Владивостока (для этого была обработана информация из различных источников и собрана в новый пакет) и двух небольших городов США. Методом простой прогонки двух блоков сходимости добиться не удалось, тогда как вторая модель для того же набора данных продемонстрировала скорость сходимости $k^{−1.67}$.

    Kotliarova E.V., Gasnikov A.V., Gasnikova E.V., Yarmoshik D.V.
    Finding equilibrium in two-stage traffic assignment model
    Computer Research and Modeling, 2021, v. 13, no. 2, pp. 365-379

    Authors describe a two-stage traffic assignment model. It contains of two blocks. The first block consists of a model for calculating a correspondence (demand) matrix, whereas the second block is a traffic assignment model. The first model calculates a matrix of correspondences using a matrix of transport costs (it characterizes the required volumes of movement from one area to another, it is time in this case). To solve this problem, authors propose to use one of the most popular methods of calculating the correspondence matrix in urban studies — the entropy model. The second model describes exactly how the needs for displacement specified by the correspondence matrix are distributed along the possible paths. Knowing the ways of the flows distribution along the paths, it is possible to calculate the cost matrix. Equilibrium in a two-stage model is a fixed point in the sequence of these two models. In practice the problem of finding a fixed point can be solved by the fixed-point iteration method. Unfortunately, at the moment the issue of convergence and estimations of the convergence rate for this method has not been studied quite thoroughly. In addition, the numerical implementation of the algorithm results in many problems. In particular, if the starting point is incorrect, situations may arise where the algorithm requires extremely large numbers to be computed and exceeds the available memory even on the most modern computers. Therefore the article proposes a method for reducing the problem of finding the equilibrium to the problem of the convex non-smooth optimization. Also a numerical method for solving the obtained optimization problem is proposed. Numerical experiments were carried out for both methods of solving the problem. The authors used data for Vladivostok (for this city information from various sources was processed and collected in a new dataset) and two smaller cities in the USA. It was not possible to achieve convergence by the method of fixed-point iteration, whereas the second model for the same dataset demonstrated convergence rate $k^{-1.67}$.

  2. Грачев В.А., Найштут Ю.С.
    Вариационный принцип для сплошных сред, обладающих памятью формы, при изменяющихся внешних силах и температуре
    Компьютерные исследования и моделирование, 2021, т. 13, № 3, с. 541-555

    В рамках феноменологической механики сплошной среды без анализа микрофизики явления рассматривается квазистатическая задача деформирования сплавов с памятью формы. Феноменологический подход основан на сопоставлении двух диаграмм деформирования материалов. Первая диаграмма отвечает активному пропорциональному нагружению, когда сплав ведет себя как идеальный упругопластический материал; после снятия нагрузки фиксируется остаточная деформация. Вторая диаграмма наблюдается, если деформированный образец нагреть до определенной для каждого сплава температуры. Происходит восстановление первоначальной формы: обратная деформация совпадает с точностью до знака с деформациями первой диаграммы. Поскольку первый этап деформирования может быть описан с по- мощью вариационного принципа, для которого доказывается существование обобщенных решений при произвольном нагружении, становится ясным, как объяснить обратную деформацию в рамках слегка видоизмененной теории пластичности. Нужно односвязную поверхность нагружения заменить двусвязной и, кроме того, вариационный принцип дополнить двумя законами термодинамики и принципом ортогональности термодинамических сил и потоков. Доказательство существования решений и в этом случае не встречает затруднений. Успешное применение теории пластичности при постоянной температуре порождает потребность получить аналогичный результат в более общем случае изменяющихся внешних сил и температуры. В работе изучается идеальная упругопластическая модель Мизеса при линейных скоростях деформаций. Учет упрочнения и использование произвольной поверхности нагружения не вызывают дополнительных трудностей.

    Формулируется расширенный вариационный принцип типа Рейсснера, который вместе с законами термопластичности позволяет доказать существование обобщенных решений для трехмерных тел, изготовленных из материалов, обладающих памятью формы. Основная трудность, которую приходится преодолевать, состоит в выборе функционального пространства для скоростей и деформаций точек континуума. Для этой цели в статье используется пространство ограниченных деформаций — основной инструмент математической теории пластичности. Процесс доказательства показывает, что принятый в работе выбор функциональных пространств не является единственным. Изучение других возможных расширенных постановок вариационной задачи, наряду с выяснением регулярности обобщенных решений, представляется интересной задачей для будущих исследований.

    Grachev V.A., Nayshtut Yu.S.
    Variational principle for shape memory solids under variable external forces and temperatures
    Computer Research and Modeling, 2021, v. 13, no. 3, pp. 541-555

    The quasistatic deformation problem for shape memory alloys is reviewed within the phenomenological mechanics of solids without microphysics analysis. The phenomenological approach is based on comparison of two material deformation diagrams. The first diagram corresponds to the active proportional loading when the alloy behaves as an ideal elastoplastic material; the residual strain is observed after unloading. The second diagram is relevant to the case when the deformed sample is heated to a certain temperature for each alloy. The initial shape is restored: the reverse distortion matches deformations on the first diagram, except for the sign. Because the first step of distortion can be described with the variational principle, for which the existence of the generalized solutions is proved under arbitrary loading, it becomes clear how to explain the reverse distortion within the slightly modified theory of plasticity. The simply connected surface of loading needs to be replaced with the doubly connected one, and the variational principle needs to be updated with two laws of thermodynamics and the principle of orthogonality for thermodynamic forces and streams. In this case it is not difficult to prove the existence of solutions either. The successful application of the theory of plasticity under the constant temperature causes the need to obtain a similar result for a more general case of variable external forces and temperatures. The paper studies the ideal elastoplastic von Mises model at linear strain rates. Taking into account hardening and arbitrary loading surface does not cause any additional difficulties.

    The extended variational principle of the Reissner type is defined. Together with the laws of thermal plasticity it enables to prove the existence of the generalized solutions for three-dimensional bodies made of shape memory materials. The main issue to resolve is a challenge to choose a functional space for the rates and deformations of the continuum points. The space of bounded deformation, which is the main instrument of the mathematical theory of plasticity, serves this purpose in the paper. The proving process shows that the choice of the functional spaces used in the paper is not the only one. The study of other possible problem settings for the extended variational principle and search for regularity of generalized solutions seem an interesting challenge for future research.

  3. Изучается геометрия сплошных сред с внутренними степенями свободы методом подвижного репера Картана. Выводятся условия неразрывности деформаций в форме уравнений структуры для многообразий. Предлагаются определяющие соотношения для жесткопластических сред с внутренними степенями свободы. Доказываются аналоги теорем о предельных нагрузках. Показано применение этих теорем для анализа поведения жесткопластических континуальных оболочек из материалов, обладающих памятью формы. Приведено вычисление предельных нагрузок для оболочек вращения при воздействии внешних сил и при восстановлении формы от нагрева.

    Grachev V.A., Nayshtut Yu.S.
    Ultimate load theorems for rigid plastic solids with internal degrees of freedom and their application in continual lattice shells
    Computer Research and Modeling, 2013, v. 5, no. 3, pp. 423-432

    This paper studies solids with internal degrees of freedom using the method of Cartan moving hedron. Strain compatibility conditions are derived in the form of structure equations for manifolds. Constitutive relations are reviewed and ultimate load theorems are proved for rigid plastic solids with internal degrees of freedom. It is demonstrated how the above theorems can be applied in behavior analysis of rigid plastic continual shells of shape memory materials. The ultimate loads are estimated for rotating shells under external forces and in case of shape recovery from heating.

    Цитирований: 2 (РИНЦ).
  4. Чернавская О.Д.
    Динамическая теория информации как базис естественно-конструктивистского подхода к моделированию мышления
    Компьютерные исследования и моделирование, 2017, т. 9, № 3, с. 433-447

    Рассматриваются основные положения и выводы динамической теории информации (ДТИ). Показано, что ДТИ дает возможность выявить два существенно важных типа информации: объективную (безусловную) и субъективную (условную). Выделяется два способа получения информации: рецепция (восприятие уже существующей информации) и генерация информации (производство новой). Показано, что процессы генерации и рецепции информации должны происходить в двух разных подсистемах одной когнитивной системы. Обсуждаются основные положения естественно-конструктивистского подхода к моделированию мышления. Показано, что любой нейроморфный подход сталкивается с проблемой «провала в описании «Мозга» и «Разума»», т. е. провала между объективно измеримой информации об ансамбле нейронов («Мозг») и субъективной информацией о сознании человека («Разум»). Обсуждается естественно-конструктивистская когнитивная архитектура, разработанная в рамках данного подхода. Она представляет собой сложную блочно-иерархическую комбинацию, собранную из разных нейропро-цессоров. Основная конструктивная особенность этой архитектуры состоит в том, что вся система разделена на две подсистемы (по аналогии с полушариями головного мозга). Одна из подсистем отвечает за восприятие новой информации, обучение и творчество, т. е. за генерацию информации. Другая подсистема отвечает за обработку уже существующей информации, т. е. рецепцию информации. Показано, что низший (нулевой) уровень иерархии представлен процессорами, которые должны записывать образы реальных объектов (распределенная память) как отклик на сенсорные сигналы, что представляет собой объективную информацию (и относится к «Мозгу»). Остальные уровни иерархии представлены процессорами, содержащими символы записанных образов. Показано, что символы представляют собой субъективную (условную) информацию, создаваемую самой системой и обеспечивающую ее индивидуальность. Совокупность высоких уровней иерархии, содержащих символы абстрактных понятий, дает возможность интерпретировать понятия «сознание», «подсознание», «интуиция», относящиеся к области «Разума», в терминах ансамбля нейронов. Таким образом, ДТИ дает возможность построить модель, позволяющую проследить, как на основе «Мозга» возникает «Разум».

    Chernavskaya O.D.
    Dynamical theory of information as a basis for natural-constructive approach to modeling a cognitive process
    Computer Research and Modeling, 2017, v. 9, no. 3, pp. 433-447

    The main statements and inferences of the Dynamic Theory Information (DTI) are considered. It is shown that DTI provides the possibility two reveal two essentially important types of information: objective (unconventional) and subjective (conventional) informtion. There are two ways of obtaining information: reception (perception of an already existing one) and generation (production of new) information. It is shown that the processes of generation and perception of information should proceed in two different subsystems of the same cognitive system. The main points of the Natural-Constructivist Approach to modeling the cognitive process are discussed. It is shown that any neuromorphic approach faces the problem of Explanatory Gap between the “Brain” and the “Mind”, i. e. the gap between objectively measurable information about the ensemble of neurons (“Brain”) and subjective information about the human consciousness (“Mind”). The Natural-Constructive Cognitive Architecture developed within the framework of this approach is discussed. It is a complex block-hierarchical combination of several neuroprocessors. The main constructive feature of this architecture is splitting the whole system into two linked subsystems, by analogy with the hemispheres of the human brain. One of the subsystems is processing the new information, learning, and creativity, i.e. for the generation of information. Another subsystem is responsible for processing already existing information, i.e. reception of information. It is shown that the lowest (zero) level of the hierarchy is represented by processors that should record images of real objects (distributed memory) as a response to sensory signals, which is objective information (and refers to the “Brain”). The next hierarchy levels are represented by processors containing symbols of the recorded images. It is shown that symbols represent subjective (conventional) information created by the system itself and providing its individuality. The highest hierarchy levels containing the symbols of abstract concepts provide the possibility to interpret the concepts of “consciousness”, “sub-consciousness”, “intuition”, referring to the field of “Mind”, in terms of the ensemble of neurons. Thus, DTI provides an opportunity to build a model that allows us to trace how the “Mind” could emerge basing on the “Brain”.

    Просмотров за год: 6.
  5. Семакин А.Н.
    Оценка масштабируемости программы расчета движения примесей в атмосфере средствами симулятора gem5
    Компьютерные исследования и моделирование, 2020, т. 12, № 4, с. 773-794

    В данной работе мы предлагаем новую эффективную программную реализацию алгоритма расчета трансконтинентального переноса примеси в атмосфере от естественного или антропогенного источника на адаптивной конечно-разностной сетке, концентрирующей свои узлы внутри переносимого облака примеси, где наблюдаются резкие изменения значений ее массовой доли, и максимально разрежающей узлы во всех остальных частях атмосферы, что позволяет минимизировать общее количество узлов. Особенностью реализации является представление адаптивной сетки в виде комбинации динамических (дерево, связный список) и статических (массив) структур данных. Такое представление сетки позволяет увеличить скорость выполнения расчетов в два раза по сравнению со стандартным подходом представления адаптивной сетки только через динамические структуры данных.

    Программа создавалась на компьютере с шестиядерным процессором. С помощью симулятора gem5, позволяющего моделировать работу различных компьютерных систем, была произведена оценка масштабируемости программы при переходе на большее число ядер (вплоть до 32) на нескольких моделях компьютерной системы вида «вычислительные ядра – кэш-память – оперативная память» с разной степенью детализации ее элементов. Отмечено существенное влияние состава компьютерной системы на степень масштабируемости исполняемой на ней программы: максимальное ускорение на 32-х ядрах при переходе от двухуровневого кэша к трехуровневому увеличивается с 14.2 до 22.2. Время выполнения программы на модели компьютера в gem5 превосходит время ее выполнения на реальном компьютере в 104–105 раз в зависимости от состава модели и составляет 1.5 часа для наиболее детализированной и сложной модели.

    Также в статье рассматриваются подробный порядок настройки симулятора gem5 и наиболее оптимальный с точки зрения временных затрат способ проведения симуляций, когда выполнение не представляющих интерес участков кода переносится на физический процессор компьютера, где работает gem5, а непосредственно внутри симулятора выполняется лишь исследуемый целевой кусок кода.

    In this work we have developed a new efficient program for the numerical simulation of 3D global chemical transport on an adaptive finite-difference grid which allows us to concentrate grid points in the regions where flow variables sharply change and coarsen the grid in the regions of their smooth behavior, which significantly minimizes the grid size. We represent the adaptive grid with a combination of several dynamic (tree, linked list) and static (array) data structures. The dynamic data structures are used for a grid reconstruction, and the calculations of the flow variables are based on the static data structures. The introduction of the static data structures allows us to speed up the program by a factor of 2 in comparison with the conventional approach to the grid representation with only dynamic data structures.

    We wrote and tested our program on a computer with 6 CPU cores. Using the computer microarchitecture simulator gem5, we estimated the scalability property of the program on a significantly greater number of cores (up to 32), using several models of a computer system with the design “computational cores – cache – main memory”. It has been shown that the microarchitecture of a computer system has a significant impact on the scalability property, i.e. the same program demonstrates different efficiency on different computer microarchitectures. For example, we have a speedup of 14.2 on a processor with 32 cores and 2 cache levels, but we have a speedup of 22.2 on a processor with 32 cores and 3 cache levels. The execution time of a program on a computer model in gem5 is 104–105 times greater than the execution time of the same program on a real computer and equals 1.5 hours for the most complex model.

    Also in this work we describe how to configure gem5 and how to perform simulations with gem5 in the most optimal way.

  6. Бештоков М.Х.
    Численное решение интегро-дифференциальных уравнений влагопереноса дробного порядка с оператором Бесселя
    Компьютерные исследования и моделирование, 2024, т. 16, № 2, с. 353-373

    В работе рассматриваются интегро-дифференциальные уравнения влагопереноса дробного порядка с оператором Бесселя. Изучаемые уравнения содержат оператор Бесселя, два оператора дробного дифференцирования Герасимова – Капуто с разными порядками $\alpha$ и $\beta$. Рассмотрены два вида интегро-дифференциальных уравнений: в первом случае уравнение содержит нелокальный источник, т.е. интеграл от неизвестной функции по переменной интегрирования $x$, а во втором — случае интеграл по временной переменной $\tau$, обозначающий эффект памяти. Подобные задачи возникают при изучении процессов с предысторией. Для решения дифференциальных задач при различных соотношениях $\alpha$ и $\beta$ получены априорные оценки в дифференциальной форме, откуда следуют единственность и устойчивость решения по правой части и начальным данным. Для приближенного решения поставленных задач построены разностные схемы с порядком аппроксимации $O(h^2+\tau^2)$ при $\alpha=\beta$ и $O(h^2+\tau^{2-\max\{\alpha,\beta\}})$ при $\alpha\neq\beta$. Исследование единственности, устойчивости и сходимости решения проводится с помощью метода энергетических неравенств. Получены априорные оценки решений разностных задач при различных соотношениях $\alpha$ и $\beta$, откуда следуют единственность и устойчивость, а также сходимость решения разностной схемы к решению исходной дифференциальной задачи со скоростью равной порядку аппроксимации разностной схемы.

    Beshtokov M.K.
    Numerical solution of integro-differential equations of fractional moisture transfer with the Bessel operator
    Computer Research and Modeling, 2024, v. 16, no. 2, pp. 353-373

    The paper considers integro-differential equations of fractional order moisture transfer with the Bessel operator. The studied equations contain the Bessel operator, two Gerasimov – Caputo fractional differentiation operators with different orders $\alpha$ and $\beta$. Two types of integro-differential equations are considered: in the first case, the equation contains a non-local source, i.e. the integral of the unknown function over the integration variable $x$, and in the second case, the integral over the time variable τ, denoting the memory effect. Similar problems arise in the study of processes with prehistory. To solve differential problems for different ratios of $\alpha$ and $\beta$, a priori estimates in differential form are obtained, from which the uniqueness and stability of the solution with respect to the right-hand side and initial data follow. For the approximate solution of the problems posed, difference schemes are constructed with the order of approximation $O(h^2+\tau^2)$ for $\alpha=\beta$ and $O(h^2+\tau^{2-\max\{\alpha,\beta\}})$ for $\alpha\neq\beta$. The study of the uniqueness, stability and convergence of the solution is carried out using the method of energy inequalities. A priori estimates for solutions of difference problems are obtained for different ratios of $\alpha$ and $\beta$, from which the uniqueness and stability follow, as well as the convergence of the solution of the difference scheme to the solution of the original differential problem at a rate equal to the order of approximation of the difference scheme.

  7. Мезенцев Ю.А., Разумникова О.М., Эстрайх И.В., Тарасова И.В., Трубникова О.А.
    Задачи и алгоритмы оптимальной кластеризации многомерных объектов по множеству разнородных показателей и их приложения в медицине
    Компьютерные исследования и моделирование, 2024, т. 16, № 3, с. 673-693

    Работа посвящена описанию авторских формальных постановок задачи кластеризации при заданном числе кластеров, алгоритмам их решения, а также результатам применения этого инструментария в медицине.

    Решение сформулированных задач точными алгоритмами реализаций даже относительно невысоких размерностей до выполнения условий оптимальности невозможно за сколько-нибудь рациональное время по причине их принадлежности к классу NP.

    В связи с этим нами предложен гибридный алгоритм, сочетающий преимущества точных методов на базе кластеризации в парных расстояниях на начальном этапе с быстродействием методов решения упрощенных задач разбиения по центрам кластеров на завершающем этапе. Для развития данного направления разработан последовательный гибридный алгоритм кластеризации с использованием случайного поиска в парадигме роевого интеллекта. В статье приведено его описание и представлены результаты расчетов прикладных задач кластеризации.

    Для выяснения эффективности разработанного инструментария оптимальной кластеризации многомерных объектов по множеству разнородных показателей был выполнен ряд вычислительных экспериментов с использованием массивов данных, включающих социально-демографические, клинико-анамнестические, электроэнцефалографические и психометрические данные когнитивного статуса пациентов кардиологической клиники. Получено эксперимен- тальное доказательство эффективности применения алгоритмов локального поиска в парадигме роевого интеллекта в рамках гибридного алгоритма при решении задач оптимальной кластеризации. Результаты вычислений свидетельствуют о фактическом разрешении основной проблемы применения аппарата дискретной оптимизации — ограничения доступных размерностей реализаций задач. Нами показано, что эта проблема снимается при сохранении приемлемой близости результатов кластеризации к оптимальным.

    Прикладное значение полученных результатов кластеризации обусловлено также тем, что разработанный инструментарий оптимальной кластеризации дополнен оценкой стабильности сформированных кластеров, что позволяет к известным факторам (наличие стеноза или старший возраст) дополнительно выделить тех пациентов, когнитивные ресурсы которых оказываются недостаточны, чтобы преодолеть влияние операционной анестезии, вследствие чего отмечается однонаправленный эффект послеоперационного ухудшения показателей сложной зрительно-моторной реакции, внимания и памяти. Этот эффект свидетельствует о возможности дифференцированно классифицировать пациентов с использованием предлагаемого инструментария.

    Mezentsev Y.A., Razumnikova O.M., Estraykh I.V., Tarasova I.V., Trubnikova O.A.
    Tasks and algorithms for optimal clustering of multidimensional objects by a variety of heterogeneous indicators and their applications in medicine
    Computer Research and Modeling, 2024, v. 16, no. 3, pp. 673-693

    The work is devoted to the description of the author’s formal statements of the clustering problem for a given number of clusters, algorithms for their solution, as well as the results of using this toolkit in medicine.

    The solution of the formulated problems by exact algorithms of implementations of even relatively low dimensions before proving optimality is impossible in a finite time due to their belonging to the NP class.

    In this regard, we have proposed a hybrid algorithm that combines the advantages of precise methods based on clustering in paired distances at the initial stage with the speed of methods for solving simplified problems of splitting by cluster centers at the final stage. In the development of this direction, a sequential hybrid clustering algorithm using random search in the paradigm of swarm intelligence has been developed. The article describes it and presents the results of calculations of applied clustering problems.

    To determine the effectiveness of the developed tools for optimal clustering of multidimensional objects according to a variety of heterogeneous indicators, a number of computational experiments were performed using data sets including socio-demographic, clinical anamnestic, electroencephalographic and psychometric data on the cognitive status of patients of the cardiology clinic. An experimental proof of the effectiveness of using local search algorithms in the paradigm of swarm intelligence within the framework of a hybrid algorithm for solving optimal clustering problems has been obtained.

    The results of the calculations indicate the actual resolution of the main problem of using the discrete optimization apparatus — limiting the available dimensions of task implementations. We have shown that this problem is eliminated while maintaining an acceptable proximity of the clustering results to the optimal ones. The applied significance of the obtained clustering results is also due to the fact that the developed optimal clustering toolkit is supplemented by an assessment of the stability of the formed clusters, which allows for known factors (the presence of stenosis or older age) to additionally identify those patients whose cognitive resources are insufficient to overcome the influence of surgical anesthesia, as a result of which there is a unidirectional effect of postoperative deterioration of complex visual-motor reaction, attention and memory. This effect indicates the possibility of differentiating the classification of patients using the proposed tools.

  8. Кхан С.А., Шулепина С., Шулепин Д., Лукманов Р.А.
    Обзор алгоритмических решений для развертывания нейронных сетей на легких устройствах
    Компьютерные исследования и моделирование, 2024, т. 16, № 7, с. 1601-1619

    В современном мире, ориентированном на технологии, легкие устройства, такие как устройства Интернета вещей (IoT) и микроконтроллеры (MCU), становятся все более распространенными. Эти устройства более энергоэффективны и доступны по цене, но часто обладают урезанными возможностями, по сравнению со стандартными версиями, такими как ограниченная память и вычислительная мощность. Современные модели машинного обучения могут содержать миллионы параметров, что приводит к значительному росту требований по объему памяти. Эта сложность не только затрудняет развертывание больших моделей на устройствах с ограниченными ресурсами, но и увеличивает риск задержек и неэффективности при обработке данных, что критично в случаях, когда требуются ответы в реальном времени, таких как автономное вождение или медицинская диагностика.

    В последние годы нейронные сети достигли значительного прогресса в методах оптимизации моделей, что помогает в развертывании и инференсе на этих небольших устройствах. Данный обзор представляет собой подробное исследование прогресса и последних достижений в оптимизации нейронных сетей, сосредотачиваясь на ключевых областях, таких как квантизация, прореживание, дистилляция знаний и поиск архитектур нейронных сетей. Обзор рассматривает, как эти алгоритмические решения развивались и как новые подходы улучшили существующие методы, делая нейронные сети более эффективными. Статья предназначена для исследователей, практиков и инженеров в области машинного обучения, которые могут быть незнакомы с этими методами, но хотят изучить доступные техники. В работе подчеркиваются текущие исследования в области оптимизации нейронных сетей для достижения лучшей производительности, снижения потребления энергии и ускорения времени обучения, что играет важную роль в дальнейшей масштабируемости нейронных сетей. Кроме того, в обзоре определяются пробелы в текущих исследованиях и закладывается основа для будущих исследований, направленных на повышение применимости и эффективности существующих стратегий оптимизации.

    Khan S.A., Shulepina S., Shulepin D., Lukmanov R.A.
    Review of algorithmic solutions for deployment of neural networks on lite devices
    Computer Research and Modeling, 2024, v. 16, no. 7, pp. 1601-1619

    In today’s technology-driven world, lite devices like Internet of Things (IoT) devices and microcontrollers (MCUs) are becoming increasingly common. These devices are more energyefficient and affordable, often with reduced features compared to the standard versions such as very limited memory and processing power for typical machine learning models. However, modern machine learning models can have millions of parameters, resulting in a large memory footprint. This complexity not only makes it difficult to deploy these large models on resource constrained devices but also increases the risk of latency and inefficiency in processing, which is crucial in some cases where real-time responses are required such as autonomous driving and medical diagnostics. In recent years, neural networks have seen significant advancements in model optimization techniques that help deployment and inference on these small devices. This narrative review offers a thorough examination of the progression and latest developments in neural network optimization, focusing on key areas such as quantization, pruning, knowledge distillation, and neural architecture search. It examines how these algorithmic solutions have progressed and how new approaches have improved upon the existing techniques making neural networks more efficient. This review is designed for machine learning researchers, practitioners, and engineers who may be unfamiliar with these methods but wish to explore the available techniques. It highlights ongoing research in optimizing networks for achieving better performance, lowering energy consumption, and enabling faster training times, all of which play an important role in the continued scalability of neural networks. Additionally, it identifies gaps in current research and provides a foundation for future studies, aiming to enhance the applicability and effectiveness of existing optimization strategies.

  9. Жмуров А.А., Барсегов В.А., Трифонов С.В., Холодов Я.А., Холодов А.С.
    Эффективные генераторы псевдослучайных чисел при молекулярном моделировании на видеокартах
    Компьютерные исследования и моделирование, 2011, т. 3, № 3, с. 287-308

    Динамика Ланжевена, метод Монте-Карло и моделирование молекулярной динамики в неявном растворителе требуют больших массивов случайных чисел на каждом шаге расчета. Мы исследовали два подхода в реализации генераторов на графических процессорах. Первый реализует последовательный алгоритм генератора на каждом потоке в отдельности. Второй основан на возможности взаимодействия между потоками и реализует общий алгоритм на всех потоках в целом. Мы покажем использование этих подходов на примере алгоритмов Ran 2, Hybrid Taus и Lagged Fibonacci. Для проверки случайности полученных чисел мы использовали разработанные генераторы при моделировании динамики Ланжевена N независимых гармонических осцилляторов в термостате. Это позволило нам оценить статистические характеристики генераторов. Мы также исследовали производительность, использование памяти и ускорение, получаемое при переносе алгоритма с центрального на графический процессор.

    Zhmurov A.A., Barsegov V.A., Trifonov S.V., Kholodov Y.A., Kholodov A.S.
    Efficient Pseudorandom number generators for biomolecular simulations on graphics processors
    Computer Research and Modeling, 2011, v. 3, no. 3, pp. 287-308

    Langevin Dynamics, Monte Carlo, and all-atom Molecular Dynamics simulations in implicit solvent require a reliable source of pseudorandom numbers generated at each step of calculation. We present the two main approaches for implementation of pseudorandom number generators on a GPU. In the first approach, inherent in CPU-based calculations, one PRNG produces a stream of pseudorandom numbers in each thread of execution, whereas the second approach builds on the ability of different threads to communicate, thus, sharing random seeds across the entire device. We exemplify the use of these approaches through the development of Ran2, Hybrid Taus, and Lagged Fibonacci algorithms. As an application-based test of randomness, we carry out LD simulations of N independent harmonic oscillators coupled to a stochastic thermostat. This model allows us to assess statistical quality of pseudorandom numbers. We also profile performance of these generators in terms of the computational time, memory usage, and the speedup factor (CPU/GPU time).

    Просмотров за год: 11. Цитирований: 2 (РИНЦ).
  10. Адамовский Е.Р., Богуш Р.П., Наумович Н.М.
    Прогнозирование занятости частотного ресурса в системе когнитивного радио с использованием нейронной сети Колмогорова – Арнольда
    Компьютерные исследования и моделирование, 2025, т. 17, № 1, с. 109-123

    Для систем когнитивного радио актуальным является использование эффективных алгоритмов поиска свободных каналов, которые могут быть предоставлены вторичным пользователям. Поэтому данная статья посвящена повышению точности прогнозирования занятости частотного ресурса системы сотовой связи с использованием пространственно-временных карт радиосреды. Формирование карты радиосреды осуществляется для системы сотовой связи четвертого поколения Long-Term Evolution. С учетом этого разработана структура модели, включающая генерацию данных и позволяющая выполнять обучение и тестирование искусственной нейронной сети для прогнозирования занятости частотных ресурсов, представленных в виде содержимого ячеек карты радиосреды. Описана методика оценки точности прогнозирования. Имитационная модель системы сотовой связи реализована в программной среде MatLab. Разработанная модель прогнозирования занятости частотного ресурса реализована на языке программирования Python. Представлена полная файловая структура модели. Эксперименты выполнены с использованием искусственных нейронных сетей на основе архитектур нейронных сетей Long Short-Term Memory и Колмогорова – Арнольда с учетом ее модификации. Установлено, что при равном количестве параметров нейронная сеть Колмогорова – Арнольда обучается быстрее для данной задачи. Полученные результаты исследований свидетельствуют о повышении точности прогнозирования занятости частотного ресурса системы сотовой связи при использовании нейронной сети Колмогорова – Арнольда.

    Adamovskiy Y.R., Bohush R.P., Naumovich N.M.
    Prediction of frequency resource occupancy in a cognitive radio system using the Kolmogorov – Arnold neural network
    Computer Research and Modeling, 2025, v. 17, no. 1, pp. 109-123

    For cognitive radio systems, it is important to use efficient algorithms that search for free channels that can be provided to secondary users. Therefore, this paper is devoted to improving the accuracy of prediction frequency resource occupancy of a cellular communication system using spatiotemporal radio environment maps. The formation of a radio environment map is implemented for the fourthgeneration cellular communication system Long-Term Evolution. Taking this into account, a model structure has been developed that includes data generation and allows training and testing of an artificial neural network to predict the occupancy of frequency resources presented as the contents of radio environment map cells. A method for assessing prediction accuracy is described. The simulation model of the cellular communication system is implemented in the MatLab. The developed frequency resource occupancy prediction model is implemented in the Python. The complete file structure of the model is presented. The experiments were performed using artificial neural networks based on the Long Short-Term Memory and Kolmogorov – Arnold neural network architectures, taking into account its modification. It was found that with an equal number of parameters, the Kolmogorov –Arnold neural network learns faster for a given task. The obtained research results indicate an increase in the accuracy of prediction the occupancy of the frequency resource of the cellular communication system when using the Kolmogorov – Arnold neural network.

Страницы: « первая предыдущая следующая последняя »

Журнал индексируется в Scopus

Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU

Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science

Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"

Международная Междисциплинарная Конференция МАТЕМАТИКА. КОМПЬЮТЕР. ОБРАЗОВАНИЕ.