Текущий выпуск Номер 2, 2026 Том 18

Все выпуски

Результаты поиска по 'filtering':
Найдено статей: 20
  1. Вражнов Д.А., Шаповалов А.В., Николаев В.В.
    Симметрии дифференциальных уравнений в задачах компьютерного зрения
    Компьютерные исследования и моделирование, 2010, т. 2, № 4, с. 369-376

    В данной работе приводится обобщение подхода к построению инвариантных векторов признаков изображений в задачах распознавания образов. Базовым элементом предлагаемого алгоритма является замена обычно применяемого гауссова фильтра исходного изображения сверткой функции изображения с функцией Грина эволюционного оператора, наследующей свойства симметрий этого оператора. Применение обобщенной фильтрации позволяет выделять дополнительные характеристики инвариантных векторов признаков.

    Vrazhnov D.A., Shapovalov A.V., Nikolaev V.V.
    Symmetries of differential equations in computer vision applications
    Computer Research and Modeling, 2010, v. 2, no. 4, pp. 369-376

    In our work we present generalization of well-known approach for construction of invariant feature vectors of images in computer vision applications. Basic feature of the suggested algorithm is replacement of commonly used Gaussian filter by convolution of image function with Green’s function of evolution operator, which inherits symmetries of this operator. The use of general filtration allows to obtain additional characteristics of invariant feature vectors.

    Просмотров за год: 8. Цитирований: 4 (РИНЦ).
  2. Холодов Я.А., Саллум Х., Джнади А., Хубиев К.Ю., Петренко А.
    Применение алгоритма QUBO для отбора траекторий обучения с подкреплением методом Монте-Карло
    Компьютерные исследования и моделирование, 2026, т. 18, № 2, с. 273-288

    Метод Монте-Карло (Monte Carlo, MC) в обучении с подкреплением показывает низкую эффективность при высокой сложности обучающей выборки — в средах с редким вознаграждением, большим пространством состояний и коррелирующими траекториями. Эти ограничения приводят к повышенной вариативности оценок возврата и существенно замедляют процесс сходимости, особенно в задачах, где требуется выделить наиболее информативные эпизоды из большого множества доступных данных. При прямом использовании всех траекторий возникает избыток информации, что ухудшает качество итоговых оценок и увеличивает вычислительную нагрузку. В данной работе мы предлагаем подход, позволяющий преодолеть указанные проблемы за счет оптимизации отбора обучающих данных и структурирования выборки перед применением классического метода Монте-Карло. Задача отбора обучающих траекторий формулируется как квадратичная неограниченная бинарная оптимизация (Quadratic Unconstrained Binary Optimization, QUBO) и решается с помощью алгоритма квантового отжига. Предлагаемый метод MC+QUBO интегрирует комбинаторный фильтрующий шаг в стандартную процедуру оценки: из множества потенциальных траекторий выбирается поднабор, максимизирующий суммарное вознаграждение, обеспечивая при этом достаточное покрытие пространства состояний и снижение взаимной корреляции эпизодов. В QUBO-формулировке линейные члены поощряют включение эпизодов с высоким значением возврата, тогда как квадратичные члены регулируют разнообразие и баланс траекторий, уменьшая риск переобучения на узком подмножестве данных. В качестве решателей из категории «черного ящика» используются алгоритмы симуляции квантового отжига (Simulated Quantum Annealing, SQA) и симулированная бифуркация (Simulated Bifurcation, SB), что позволяет эффективно решать задачи с большим числом потенциальных эпизодов и быстро находить приближенные оптимальные решения. Эксперименты в среде GridWorld показывают, что MC+QUBO превосходит классический метод Монте-Карло по скорости сходимости, устойчивости оценок и качеству итогового обучения, демонстрируя потенциал квантовой оптимизации как инструмента повышения эффективности принятия решений в задачах обучения с подкреплением.

    Kholodov Y.A., Salloum H., Jnadi A., Khubiev K.Yu., Petrenko A.
    Quantum-inspired episode selection for Monte Carlo reinforcement learning via QUBO optimization
    Computer Research and Modeling, 2026, v. 18, no. 2, pp. 273-288

    Monte Carlo (MC) reinforcement learning suffers from high sample complexity, especially in environments with sparse rewards, large state spaces, and strongly correlated trajectories that reduce the statistical efficiency of return estimation. These well-known limitations often lead to slow convergence and unstable learning dynamics, particularly in settings where only a small fraction of collected trajectories is actually informative for policy improvement. A key challenge is therefore to identify a compact yet diverse subset of episodes that contributes most to the accuracy of value estimates while preserving sufficient exploration of the environment. To address this challenge, we reformulate episode selection as a Quadratic Unconstrained Binary Optimization (QUBO) problem and solve it using quantum-inspired sampling techniques. Our method, MC+ QUBO, inserts a combinatorial filtering step into the standard MC policy-evaluation pipeline: given a batch of trajectories, it selects a subset that maximizes cumulative reward and encourages broad state-space coverage. This selection procedure is expressed as a QUBO model, where linear terms favor high-return episodes, quadratic terms penalize redundancy between trajectories, and additional coupling terms can be used to enforce coverage-related constraints or promote structural diversity. Within this framework, we investigate two black-box QUBO solvers: Simulated Quantum Annealing (SQA), which emulates tunneling-based exploration of the search landscape, and Simulated Bifurcation (SB), a dynamical-systems-based iterative optimization method. Both solvers demonstrate the ability to efficiently navigate the combinatorial structure of the trajectory-selection problem and to handle batch sizes that are otherwise computationally expensive for exhaustive or deterministic search. Experiments in a finite-horizon GridWorld environment show that MC+QUBO consistently outperforms vanilla MC in convergence speed, stability of return estimates, and final policy quality. These results highlight the promise of quantum-inspired optimization as a practical decision-making subroutine within reinforcement-learning algorithms, offering a scalable way to improve sample efficiency without modifying the underlying learning paradigm.

  3. Петров М.О., Рындин Е.А., Андреева Н.В.
    Нейроморфный процессор с аппаратным обучением на основе сверточной нейронной сети для анализа аудиоспектрограмм
    Компьютерные исследования и моделирование, 2026, т. 18, № 1, с. 81-99

    В статье предлагается архитектурное решение организации сверточной нейронной сети (СНС), ориентированное на аппаратную реализацию на конечных устройствах (edge-устройствах) в условиях ограниченных ресурсов. С этой целью предложен подход к сжатию спектрограмм до заданного размера (28×28) с использованием дискретизации, моноконверсии, оконного преобразования Фурье и двумерной интерполяции. Разработана сбалансированная процедура свертки на базе компактных сверточных фильтров, размер которых обеспечивает необходимый для edge-устройств баланс между вычислительной сложностью и точностью. Предложен алгоритм, позволяющий выполнять операции свертки и вычисления градиента функции ошибки на сверточном слое за один такт, обеспечивая повышение производительности режимов инференса и обучения СНС. Проведена оптимизация соотношения между обучаемостью сети и ее устойчивостью к переобучению за счет применения метода регуляризации Dropout с коэффициентом отбрасывания 0,5 для полносвязного слоя.

    Работоспособность предложенного решения продемонстрирована на примере задачи распознавания аудиоспектрограмм звуков двигателей автомобилей и самолетов. СНС обучалась на сбалансированном наборе данных, состоящем из 7160 аудиозаписей. Обученная сеть демонстрировала высокую точность распознавания (95%), низкие значения функции потерь (<0,2), сбалансированные метрики «точность/полнота/F-мера», что свидетельствует об эффективности разработанной модели СНС.

    Petrov M.O., Ryndin E.A., Andreeva N.V.
    Neuromorphic processor with hardware learning based on a convolutional neural network for audio spectrogram analysis
    Computer Research and Modeling, 2026, v. 18, no. 1, pp. 81-99

    This paper proposes an architectural solution for organizing a convolutional neural network (CNN) oriented towards hardware implementation on edge devices under limited resources. To this goal, an approach to compressing spectrograms to a given size (28 × 28) is proposed using discretization, monoconversion, windowed Fourier transform, and two-dimensional interpolation. A balanced convolution procedure is developed based on compact convolutional filters, the size of which provides the balance between computational complexity and accuracy required for edge devices. An algorithm that enables convolution operations and calculation of the error function gradient in the convolutional layer in a single cycle ensuring increased performance in both inference and training modes of the CNN is proposed. The tradeoff between network trainability and its resistance to overfitting is optimized by applying the Dropout regularization method with a dropout coefficient of 0.5 for the fully connected layer.

    The effectiveness of the proposed solution was demonstrated using the example of recognizing audio spectrograms of car and airplane engine sounds. The CNN was trained on a balanced dataset consisting of 7160 audio recordings. The trained network demonstrated high recognition accuracy (95%), low loss values (< 0.2), and balanced precision/recall/F-metric, demonstrating the effectiveness of the developed CNN model.

  4. Черемисина Е.Н., Сеннер А.Е.
    Применение ГИС ИНТЕГРО в задачах поиска месторождений нефти и газа
    Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 439-444

    В основу системы интегрированной интерпретации геофизических данных при изучении глубинного строения Земли положена система ГИС ИНТЕГРО, являющаяся геоинформационной системой функционирования разнообразных вычислительных и аналитических приложений при решении различных геологических задач. ГИС ИНТЕГРО включает в себя многообразные интерфейсы, позволяющие изменять форму представления данных (растр, вектор, регулярная и нерегулярная сеть наблюдений), блок преобразования картографических проекций, а также прикладные блоки, включающие блок интегрированного анализа данных и решения прогнозно-диагностических задач.

    Методический подход базируется на интеграции и комплексном анализе геофизических данных по региональным профилям, геофизических потенциальных полей и дополнительной геологической информации на изучаемую территорию.

    Аналитическое обеспечение включает пакеты трансформаций, фильтрации, статистической обработки полей, расчета характеристик, выделения линеаментов, решения прямых и обратных задач, интегрирования геоинформации.

    Технология и программно-аналитическое обеспечение апробировались при решении задач тектонического районирования в масштабах 1:200000, 1:1000000 в Якутии, Казахстане, Ростовской области, изучения глубинного строения по региональным профилям 1:ЕВ, 1-СБ, 2-СБ, 3-СБ и 2-ДВ, прогноза нефтегазоносности в районах Восточной Сибири, Бразилии.

    Cheremisina E.N., Senner A.E.
    The use of GIS INTEGRO in searching tasks for oil and gas deposits
    Computer Research and Modeling, 2015, v. 7, no. 3, pp. 439-444

    GIS INTEGRO is the geo-information software system forming the basis for the integrated interpretation of geophysical data in researching a deep structure of Earth. GIS INTEGRO combines a variety of computational and analytical applications for the solution of geological and geophysical problems. It includes various interfaces that allow you to change the form of representation of data (raster, vector, regular and irregular network of observations), the conversion unit of map projections, application blocks, including block integrated data analysis and decision prognostic and diagnostic tasks.

    The methodological approach is based on integration and integrated analysis of geophysical data on regional profiles, geophysical potential fields and additional geological information on the study area. Analytical support includes packages transformations, filtering, statistical processing, calculation, finding of lineaments, solving direct and inverse tasks, integration of geographic information.

    Technology and software and analytical support was tested in solving problems tectonic zoning in scale 1:200000, 1:1000000 in Yakutia, Kazakhstan, Rostov region, studying the deep structure of regional profiles 1:S, 1-SC, 2-SAT, 3-SAT and 2-DV, oil and gas forecast in the regions of Eastern Siberia, Brazil.

    The article describes two possible approaches of parallel calculations for data processing 2D or 3D nets in the field of geophysical research. As an example presented realization in the environment of GRID of the application software ZondGeoStat (statistical sensing), which create 3D net model on the basis of data 2d net. The experience has demonstrated the high efficiency of the use of environment of GRID during realization of calculations in field of geophysical researches.

    Просмотров за год: 4.
  5. Ососков Г.А., Бакина О.В., Баранов Д.А., Гончаров П.В., Денисенко И.И., Жемчугов А.С., Нефедов Ю.А., Нечаевский А.В., Никольская А.Н., Щавелев Е.М., Ван Л., Сунь Ш., Чжан Я.
    Нейросетевая реконструкция треков частиц для внутреннего CGEM-детектораэк сперимента BESIII
    Компьютерные исследования и моделирование, 2020, т. 12, № 6, с. 1361-1381

    Реконструкция траекторий заряженных частиц в трековых детекторах является ключевой проблемой анализа экспериментальных данных для физики высоких энергий и ядерной физики. Поток данных в современных экспериментах растет день ото дня, и традиционные методы трекинга уже не в состоянии соответствовать этим объемам данных по скорости обработки. Для решения этой проблемы нами были разработаны два нейросетевых алгоритма, использующих методы глубокого обучения, для локальной (каждый трек в отдельности) и глобальной (все треки в событии) реконструкции треков применительно к данным трекового GEM-детектора эксперимента BM@N ОИЯИ. Преимущество глубоких нейронных сетей обусловлено их способностью к обнаружению скрытых нелинейных зависимостей в данных и возможностью параллельного выполнения операций линейной алгебры, лежащих в их основе.

    В данной статье приведено описание исследования по обобщению этих алгоритмов и их адаптации к применению для внутреннего поддетектора CGEM (BESIII ИФВЭ, Пекин). Нейросетевая модель RDGraphNet для глобальной реконструкции треков, разработанная на основе реверсного орграфа, успешно адаптирована. После обучения на модельных данных тестирование показало обнадеживающие результаты: для распознавания треков полнота (recall) составила 98% и точность (precision) — 86%. Однако адаптация «локальной» нейросетевой модели TrackNETv2 потребовала учета специфики цилиндрического детектора CGEM (BESIII), состоящего всего из трех детектирующих слоев, и разработки дополнительного нейроклассификатора для отсева ложных треков. Полученная программа TrackNETv2.1 протестирована в отладочном режиме. Значение полноты на первом этапе обработки составило 99%. После применения классификатора точность составила 77%, при незначительном снижении показателя полноты до 94%. Данные результаты предполагают дальнейшее совершенствование модели локального трекинга.

    Ososkov G.A., Bakina O.V., Baranov D.A., Goncharov P.V., Denisenko I.I., Zhemchugov A.S., Nefedov Y.A., Nechaevskiy A.V., Nikolskaya A.N., Shchavelev E.M., Wang L., Sun S., Zhang Y.
    Tracking on the BESIII CGEM inner detector using deep learning
    Computer Research and Modeling, 2020, v. 12, no. 6, pp. 1361-1381

    The reconstruction of charged particle trajectories in tracking detectors is a key problem in the analysis of experimental data for high energy and nuclear physics.

    The amount of data in modern experiments is so large that classical tracking methods such as Kalman filter can not process them fast enough. To solve this problem, we have developed two neural network algorithms of track recognition, based on deep learning architectures, for local (track by track) and global (all tracks in an event) tracking in the GEM tracker of the BM@N experiment at JINR (Dubna). The advantage of deep neural networks is the ability to detect hidden nonlinear dependencies in data and the capability of parallel execution of underlying linear algebra operations.

    In this work we generalize these algorithms to the cylindrical GEM inner tracker of BESIII experiment. The neural network model RDGraphNet for global track finding, based on the reverse directed graph, has been successfully adapted. After training on Monte Carlo data, testing showed encouraging results: recall of 98% and precision of 86% for track finding.

    The local neural network model TrackNETv2 was also adapted to BESIII CGEM successfully. Since the tracker has only three detecting layers, an additional neuro-classifier to filter out false tracks have been introduced. Preliminary tests demonstrated the recall value at the first stage of 99%. After applying the neuro-classifier, the precision was 77% with a slight decrease of the recall to 94%. This result can be improved after the further model optimization.

  6. Нестерова А.В., Денисова Н.В., Минин С.М., Анашбаев Ж.Ж., Усов В.Ю.
    Определение поправочных коэффициентов при количественной оценке костных патологических очагов методом гамма-эмиссионной томографии
    Компьютерные исследования и моделирование, 2025, т. 17, № 4, с. 677-696

    При обследовании методом однофотонной эмиссионной компьютерной томографии (ОФЭКТ) пациентам с заболеваниями костной системы вводится радиофармпрепарат (РФП), который специфическим образом накапливается в патологических очагах. Количественные оценки накопления РФП в очагах важны для определения стадии заболевания, прогнозирования его течения и разработки персонализированных терапевтических стратегий. Исследования точности количественных оценок обычно проводятся на основе клинических испытаний in vitro с использованием стандартизированного вещественного фантома NEMA IEC с шестью сферами, имитирующими патологические очаги разных размеров. Однако возможности проведения таких многопараметрических экспериментальных измерений ограничены из-за высокойстоимости и лучевой нагрузки на исследователей. В данной работе развит альтернативный подход на основе имитационного компьютерного моделирования in silico с использованием цифрового двойника фантома NEMA IEC. Компьютерные эксперименты могут проводиться без ограничений с разными сценариями. По аналогии с клиническими испытаниями в численном моделировании оценивался коэффициент восстановления (RCmax), равный отношению максимального значения полученного решения в очаге к его точной величине. Условия моделирования были ориентированы на параметры клинических обследований методом ОФЭКТ/КТ с 99mTc пациентов с заболеваниями и поражениями костной системы. Впервые выполнены исследования зависимости RCmax от величины отношения «очаг/фон» и влияния постфильтрации решения. В численных экспериментах были получены краевые артефакты на изображениях очагов, аналогичные тем, которые наблюдались при измерениях на реальном фантоме NEMA IEC и в клинической практике при обследовании пациентов. Краевые артефакты приводят к нестабильности поведения решения в итерационном процессе и к ошибкам в оценке накопления РФП в очагах. Показано, что постфильтрация снижает влияние этих артефактов, обеспечивая стабильное решение. Однако при этом существенно занижаются оценки решения в небольших очагах, поэтому предложено учитывать полученные в данной работе поправочные коэффициенты при количественной оценке активности в очагах диаметром менее 20 мм.

    Nesterova A.V., Denisova N.V., Minin S.M., Anashbaev Z.Z., Usov V.Y.
    Determination of post-reconstruction correction factors for quantitative assessment of pathological bone lesions using gamma emission tomography
    Computer Research and Modeling, 2025, v. 17, no. 4, pp. 677-696

    In single-photon emission computed tomography (SPECT), patients with bone disorders receive a radiopharmaceutical (RP) that accumulates selectively in pathological lesions. Accurate quantification of RP uptake plays a critical role in disease staging, prognosis, and the development of personalized treatment strategies. Traditionally, the accuracy of quantitative assessment is evaluated through in vitro clinical trials using the standardized physical NEMA IEC phantom, which contains six spheres simulating lesions of various sizes. However, such experiments are limited by high costs and radiation exposure to researchers. This study proposes an alternative in silico approach based on numerical simulation using a digital twin of the NEMA IEC phantom. The computational framework allows for extensive testing under varying conditions without physical constraints. Analogous to clinical protocols, we calculated the recovery coefficient (RCmax), defined as the ratio of the maximum activity in a lesion to its known true value. The simulation settings were tailored to clinical SPECT/CT protocols involving 99mTc for patients with bone-related diseases. For the first time, we systematically analyzed the impact of lesion-to-background ratios and post-reconstruction filtering on RCmax values. Numerical experiments revealed the presence of edge artifacts in reconstructed lesion images, consistent with those observed in both real NEMA IEC phantom studies and patient scans. These artifacts introduce instability into the iterative reconstruction process and lead to errors in activity quantification. Our results demonstrate that post-filtering helps suppress edge artifacts and stabilizes the solution. However, it also significantly underestimates activity in small lesions. To address this issue, we introduce post-reconstruction correction factors derived from our simulations to improve the accuracy of quantification in lesions smaller than 20 mm in diameter.

  7. Деев А.А., Кальщиков А.А.
    Когерентный приемопередатчик с постоянной задержкой для синхронной оптоволоконной сети
    Компьютерные исследования и моделирование, 2023, т. 15, № 1, с. 141-155

    В статье предлагается реализация когерентного приемопередатчика с постоянной задержкой и возможностью свободно варьируемой сетки тактовых частот, используемой для тактирования периферийных ЦАП и АЦП, задач синхронизации устройств и передачи данных. Выбор необходимой сетки тактовых частот напрямую влияет на скорость передачи данных в сети, однако позволяет гибко настроить сеть для передачи тактовых сигналов и генерации синхроимпульсов с субнаносекундной точностью на всех устройствах в сети. Предложен метод повышения точности синхронизации до десятых долей наносекунды за счет использования цифровых фазовых детекторов и системы фазовой автоподстройки частоты (ФАПЧ) на ведомом устройстве. Использование высокоскоростных волоконно-оптических линий связи (ВОЛС) для задач синхронизации шкал времени, позволяет параллельно синхронизации производить обмен командами управления и сигнальными данными. Для упрощения и удешевления устройств синхронной сети приемопередатчиков предлагается использовать тактовый сигнал, восстановленный из сериализованных данных, и прошедший фильтрацию фазовых шумов, для формирования в системе ФАПЧ тактовых сигналов периферийных устройств, таких как ЦАП и АЦП, а также сигналов гетеродина. Представлены результаты многократных тестов синхронизации в предложенной синхронной сети.

    Deev A.A., Kalshchikov A.A.
    Coherent constant delay transceiver for a synchronous fiber optic network
    Computer Research and Modeling, 2023, v. 15, no. 1, pp. 141-155

    This paper proposes the implementation of a coherent transceiver with a constant delay and the ability to select any clock frequency grid used for clocking peripheral DACs and ADCs, tasks of device synchronization and data transmission. The choice of the required clock frequency grid directly affects the data transfer rate in the network, however, it allows one to flexibly configure the network for the tasks of transmitting clock signals and subnanosecond generation of sync signals on all devices in the network. A method for increasing the synchronization accuracy to tenths of nanoseconds by using digital phase detectors and a Phase Locked Loop (PLL) system on the slave device is proposed. The use of high-speed fiber-optic communication lines (FOCL) for synchronization tasks allows simultaneously exchanging control commands and signaling data. To simplify and reduce the cost of devices of a synchronous network of transceivers, it is proposed to use a clock signal restored from a data transmission line to filter phase noise and form a frequency grid in the PLL system for heterodyne signals and clock peripheral devices, including DAC and ADC. The results of multiple synchronization tests in the proposed synchronous network are presented.

  8. Шепелев В.Д., Костюченков Н.В., Шепелев С.Д., Алиева А.А., Макарова И.В., Буйвол П.А., Парсин Г.А.
    Разработка интеллектуальной системы определения объемно-весовых характеристик груза
    Компьютерные исследования и моделирование, 2021, т. 13, № 2, с. 437-450

    Промышленная обработка изображений или «машинное зрение» в настоящее время является ключевой технологией во многих отраслях, поскольку эта технология может использоваться для оптимизации различных процессов. Целью настоящей работы является создание программно-аппаратного комплекса измерения габаритно-весовых характеристик груза на базе интеллектуальной системы, основанной на нейросетевых способах идентификации, позволяющих преодолеть технологические ограничения аналогичных комплексов, реализованных на ультразвуковых и инфракрасных измерительных датчиках. Разрабатываемый комплекс будет производить измерения грузов без ограничения на объемные и весовые характеристики груза, который необходимо тарифицировать и сортировать в рамках работы складских комплексов. В состав системы будет входить интеллектуальная компьютерная программа, определяющая объемно-весовые характеристики груза с использованием технологии машинного зрения и экспериментальный образец стенда измерения объёма и веса груза.

    Проведен анализ исследований, посвященных решению аналогичных задач. Отмечено, что недостатком изученных способов являются очень высокие требования к расположению камеры, а также необходимость ручной работы при вычислении размеров, автоматизировать которую не представляется возможным без существенных доработок. В процессе работы исследованы различные способы распознавания объектов на изображениях с целью проведения предметной фильтрации по наличию груза и измерения его габаритных размеров. Получены удовлетворительные результаты при применении камер, сочетающих в себе как оптический способ захвата изображений, так и инфракрасные датчики. В результате работы разработана компьютерная программа, позволяющая захватывать непрерывный поток с видеокамер Intel RealSense с последующим извлечением из обозначенной области трехмерный объект и вычислять габаритные размеры объекта. На данном этапе выполнено: проведен анализ методик компьютерного зрения; разработан алгоритм для реализации задачи автоматического измерения грузов с использованием специальных камер; разработано программное обеспечение, позволяющее получать габаритные размеры объектов в автоматическом режиме.

    Данная разработка по завершении работы может применяться как готовое решение для транспортных компаний, логистических центров, складов крупных производственных и торговых предприятий.

    Shepelev V.D., Kostyuchenkov N.V., Shepelev S.D., Alieva A.A., Makarova I.V., Buyvol P.A., Parsin G.A.
    The development of an intelligent system for recognizing the volume and weight characteristics of cargo
    Computer Research and Modeling, 2021, v. 13, no. 2, pp. 437-450

    Industrial imaging or “machine vision” is currently a key technology in many industries as it can be used to optimize various processes. The purpose of this work is to create a software and hardware complex for measuring the overall and weight characteristics of cargo based on an intelligent system using neural network identification methods that allow one to overcome the technological limitations of similar complexes implemented on ultrasonic and infrared measuring sensors. The complex to be developed will measure cargo without restrictions on the volume and weight characteristics of cargo to be tariffed and sorted within the framework of the warehouse complexes. The system will include an intelligent computer program that determines the volume and weight characteristics of cargo using the machine vision technology and an experimental sample of the stand for measuring the volume and weight of cargo.

    We analyzed the solutions to similar problems. We noted that the disadvantages of the studied methods are very high requirements for the location of the camera, as well as the need for manual operations when calculating the dimensions, which cannot be automated without significant modifications. In the course of the work, we investigated various methods of object recognition in images to carry out subject filtering by the presence of cargo and measure its overall dimensions. We obtained satisfactory results when using cameras that combine both an optical method of image capture and infrared sensors. As a result of the work, we developed a computer program allowing one to capture a continuous stream from Intel RealSense video cameras with subsequent extraction of a three-dimensional object from the designated area and to calculate the overall dimensions of the object. At this stage, we analyzed computer vision techniques; developed an algorithm to implement the task of automatic measurement of goods using special cameras and the software allowing one to obtain the overall dimensions of objects in automatic mode.

    Upon completion of the work, this development can be used as a ready-made solution for transport companies, logistics centers, warehouses of large industrial and commercial enterprises.

  9. Печников А.А.
    Применение индекса дружбы и фильтра диспаритета для анализа библиометрических журнальных сетей
    Компьютерные исследования и моделирование, 2026, т. 18, № 2, с. 519-535

    Традиционный подход к исследованию коммуникаций между журналами заключается в исследовании журнальных графов цитирования. В работе предложен подход к анализу сети журналов с использованием библиометрического графа нового типа — графа журнальных пересечений, основанного на бинарной операции пересечения множеств, — с применением методов, основанныхна индексе дружбы и функции диспаритета. Подход демонстрируется на относительно небольшом примере реальной сети журналов, данные о которых содержатся в информационной системе Общероссийского портала Math-Net.Ru: 63 журнала за 2008–2021 годы, удовлетворяющие определенным требованиям и содержащие почти 69 тысяч статей, принадлежащих 54 тысячам авторов. Математическая модель этой реальной сети представляется графом пересечений с использованием коэффициента Жаккара, обладающим специфическими свойствами: малая размерность, высокая плотность графа, распределение весов ребер не аппроксимируется степенной функцией. К полученным результатам относится сетевая структура связей множества исследуемых журналов, учитывающая степень их взаимодействия, и выявление значимых вершин с использованием индекса дружбы, улавливающее его структурные свойства и имеющее очевидную содержательную интерпретацию, позволяющее ранжировать журналы по данному показателю. Тем самым реализуется инструмент для различения вершин-лидеров по индексу дружбы и «сетевых интеграторов» (closeness/betweenness) и демонстрируется качественное изменение структурных свойств при снижении плотности и сохранении связности графа, достигаемого применением функцией диспаритета. Последовательное применение функции диспаритета при уменьшении порога значимости позволяет выявить ядро графа, содержащее наиболее сильно связанные вершины, что в свою очередь позволяет определить множество вершин (и, соответственно, журналов), одновременно входящих в ядро и имеющих наивысшую значимость по индексу дружбы. Анализ уровней полученного множества журналов в «Белом списке» подтверждает высокий рейтинг этих журналов. Полученные результаты дают более глубокое понимание структуры отношений в сетях научных журналов и определяют новые подходы к их исследованию.

    Pechnikov A.A.
    Application of the friendship index and disparity filter for the analysis of bibliometric journal networks
    Computer Research and Modeling, 2026, v. 18, no. 2, pp. 519-535

    The traditional approach to studying inter-journal communication involves analyzing journal citation graphs. This paper proposes a method for analyzing journal networks using a new type of bibliometric graph — a journal intersection graph based on the binary operation of set intersection — employing techniques grounded in the friendship index and the disparity function. The approach is demonstrated using a relatively small example of a real journal network, with data sourced from the All-Russian portal Math-Net.Ru information system: 63 journals from 2008–2021 meeting specific criteria, containing almost 69 thousand articles authored by 54 thousand individuals. The mathematical model of this real-world network is represented as an intersection graph using the Jaccard coefficient, which exhibits specific properties: low dimensionality, high graph density, and an edge weight distribution that is not approximated by a power law function. The obtained results include the network structure of connections within the studied set of journals, accounting for their degree of interaction, and the identification of significant vertices using the friendship index. This captures the graph’s structural properties, offers an obvious substantive interpretation, and allows for ranking journals by this metric. Thus, the method implements a tool for distinguishing between vertices that are leaders in terms of the friendship index and “network integrators” (based on closeness/betweenness centrality). It also demonstrates a qualitative change in structural properties when reducing graph density while maintaining connectivity, achieved by applying the disparity function. The sequential application of the disparity function while lowering the significance threshold allows for the identification of the graph’s core, containing the most strongly connected vertices. This, in turn, enables the determination of a set of vertices (and corresponding journals) that are simultaneously part of the core and have the highest significance according to the friendship index. An analysis of the levels of this resulting journal set within the “Belyi Spisok” (“White List”) shows these journals have a high rating. The findings provide a deeper understanding of the relationship structure within scientific journal networks and define new approaches for their study.

  10. Рид Р., Кокс М.А., Ригли Т., Мелладо Б.
    Характеристика тестирования центрального процессора на базе процессоров ARM
    Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 581-586

    Большие научные проекты генерируют данные на всё более возрастающих скоростях. Типичные методы включают в себя хранение данных на диске, после незначительного фильтрования, а затем их обработку на больших компьютерных фермах. Производство данных достигло той точки, когда требуется обработка в режиме on-line, чтобы отфильтровать данные до управляемых размеров. Потенциальное решение включает в себя использование низко затратных процессоров ARM с маленькой мощностью в больших массивах для обеспечения массивного распараллеливания для вычислений потока данных (DSC). Главное преимущество в использовании систем на одном кристалле (SoCs) присуще самой философии этой разработки. Системы на микросхеме, прежде всего, используются в мобильных устройствах и, следовательно, потребляют меньше энергии при своей относительно хорошей производительности. Дано описание тестирования трех различных моделей процессоров ARM.

    Reed R.G., Cox M.A., Wrigley T., Mellado B.
    A CPU benchmarking characterization of ARM based processors
    Computer Research and Modeling, 2015, v. 7, no. 3, pp. 581-586

    Big science projects are producing data at ever increases rates. Typical techniques involve storing the data to disk, after minor filtering, and then processing it in large computer farms. Data production has reached a point where on-line processing is required in order to filter the data down to manageable sizes. A potential solution involves using low-cost, low-power ARM processors in large arrays to provide massive parallelisation for data stream computing (DSC). The main advantage in using System on Chips (SoCs) is inherent in its design philosophy. SoCs are primarily used in mobile devices and hence consume less power while maintaining relatively good performance. A benchmarking characterisation of three different models of ARM processors will be presented.

    Просмотров за год: 1.
Страницы: предыдущая

Журнал индексируется в Scopus

Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU

Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science

Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"

Международная Междисциплинарная Конференция МАТЕМАТИКА. КОМПЬЮТЕР. ОБРАЗОВАНИЕ.