Все выпуски
- 2024 Том 16
- 2023 Том 15
- 2022 Том 14
- 2021 Том 13
- 2020 Том 12
- 2019 Том 11
- 2018 Том 10
- 2017 Том 9
- 2016 Том 8
- 2015 Том 7
- 2014 Том 6
- 2013 Том 5
- 2012 Том 4
- 2011 Том 3
- 2010 Том 2
- 2009 Том 1
-
Байесовская вероятностная локализация автономного транспортного средства путем ассимиляции сенсорных данных и информации о дорожных знаках
Компьютерные исследования и моделирование, 2018, т. 10, № 3, с. 295-303Локализация транспортного средства является важной задачей в области интеллектуальных транспортных систем. Хорошо известно, что слияние показаний с разных датчиков (англ. Sensor Fusion) позволяет создавать более робастные и точные навигационные системы для автономных транспортных средств. Стандартные подходы, такие как расширенный фильтр Калмана или многочастичный фильтр, либо неэффективны при работе с сильно нелинейными данными, либо потребляют значительные вычислительные ресурсы, что осложняет их использование во встроенных системах. При этом точность сливаемых сенсоров может сильно различаться. Значительный прирост точности, особенно в ситуации, когда GPS (англ. Global Positioning System) не доступен, может дать использование ориентиров, положение которых заранее известно, — таких как дорожные знаки, светофоры, или признаки SLAM (англ. Simultaneous Localization and Mapping). Однако такой подход может быть неприменим в случае, если априорные локации неизвестны или неточны. Мы предлагаем новый подход для уточнения координат транспортного средства с использованием визуальных ориентиров, таких как дорожные знаки. Наша система представляет собой байесовский фреймворк, уточняющий позицию автомобиля с использованием внешних данных о прошлых наблюдениях дорожных знаков, собранных методом краудсорсинга (англ. Crowdsourcing — сбор данных широким кругом лиц). Данная статья представляет также подход к комбинированию траекторий, полученных с помощью глобальных GPS-координат и локальных координат, полученных с помощью акселерометра и гироскопа (англ. Inertial Measurement Unit, IMU), для создания траектории движения транспортного средства в неизвестной среде. Дополнительно мы собрали новый набор данных, включающий в себя 4 проезда на автомобиле в городской среде по одному маршруту, при которых записывались данные GPS и IMU смартфона, видеопоток с камеры, установленной на лобовом стекле, а также высокоточные данные о положении с использованием специализированного устройства Real Time Kinematic Global Navigation Satellite System (RTK-GNSS), которые могут быть использованы для валидации. Помимо этого, с использованием той же системы RTK-GNSS были записаны точные координаты знаков, присутствующих на маршруте. Результаты экспериментов показывают, что байесовский подход позволяет корректировать траекторию движения транспортного средства и дает более точные оценки при увеличении количества известной заранее информации. Предложенный метод эффективен и требует для своей работы, кроме показаний GPS/IMU, только информацию о положении автомобилей в моменты прошлых наблюдений дорожных знаков.
Ключевые слова: байесовское обучение, слияние данных сенсоров, локализация, автономные транспортные средства.
Bayesian localization for autonomous vehicle using sensor fusion and traffic signs
Computer Research and Modeling, 2018, v. 10, no. 3, pp. 295-303Просмотров за год: 22.The localization of a vehicle is an important task in the field of intelligent transportation systems. It is well known that sensor fusion helps to create more robust and accurate systems for autonomous vehicles. Standard approaches, like extended Kalman Filter or Particle Filter, are inefficient in case of highly non-linear data or have high computational cost, which complicates using them in embedded systems. Significant increase of precision, especially in case when GPS (Global Positioning System) is unavailable, may be achieved by using landmarks with known location — such as traffic signs, traffic lights, or SLAM (Simultaneous Localization and Mapping) features. However, this approach may be inapplicable if a priori locations are unknown or not accurate enough. We suggest a new approach for refining coordinates of a vehicle by using landmarks, such as traffic signs. Core part of the suggested system is the Bayesian framework, which refines vehicle location using external data about the previous traffic signs detections, collected with crowdsourcing. This paper presents an approach that combines trajectories built using global coordinates from GPS and relative coordinates from Inertial Measurement Unit (IMU) to produce a vehicle's trajectory in an unknown environment. In addition, we collected a new dataset, including from smartphone GPS and IMU sensors, video feed from windshield camera, which were recorded during 4 car rides on the same route. Also, we collected precise location data from Real Time Kinematic Global Navigation Satellite System (RTK-GNSS) device, which can be used for validation. This RTK-GNSS system was used to collect precise data about the traffic signs locations on the route as well. The results show that the Bayesian approach helps with the trajectory correction and gives better estimations with the increase of the amount of the prior information. The suggested method is efficient and requires, apart from the GPS/IMU measurements, only information about the vehicle locations during previous traffic signs detections.
-
Lidar and camera data fusion in self-driving cars
Компьютерные исследования и моделирование, 2022, т. 14, № 6, с. 1239-1253Sensor fusion is one of the important solutions for the perception problem in self-driving cars, where the main aim is to enhance the perception of the system without losing real-time performance. Therefore, it is a trade-off problem and its often observed that most models that have a high environment perception cannot perform in a real-time manner. Our article is concerned with camera and Lidar data fusion for better environment perception in self-driving cars, considering 3 main classes which are cars, cyclists and pedestrians. We fuse output from the 3D detector model that takes its input from Lidar as well as the output from the 2D detector that take its input from the camera, to give better perception output than any of them separately, ensuring that it is able to work in real-time. We addressed our problem using a 3D detector model (Complex-Yolov3) and a 2D detector model (Yolo-v3), wherein we applied the image-based fusion method that could make a fusion between Lidar and camera information with a fast and efficient late fusion technique that is discussed in detail in this article. We used the mean average precision (mAP) metric in order to evaluate our object detection model and to compare the proposed approach with them as well. At the end, we showed the results on the KITTI dataset as well as our real hardware setup, which consists of Lidar velodyne 16 and Leopard USB cameras. We used Python to develop our algorithm and then validated it on the KITTI dataset. We used ros2 along with C++ to verify the algorithm on our dataset obtained from our hardware configurations which proved that our proposed approach could give good results and work efficiently in practical situations in a real-time manner.
Ключевые слова: autonomous vehicles, self-driving cars, sensors fusion, Lidar, camera, late fusion, point cloud, images, KITTI dataset, hardware verification.
Lidar and camera data fusion in self-driving cars
Computer Research and Modeling, 2022, v. 14, no. 6, pp. 1239-1253Sensor fusion is one of the important solutions for the perception problem in self-driving cars, where the main aim is to enhance the perception of the system without losing real-time performance. Therefore, it is a trade-off problem and its often observed that most models that have a high environment perception cannot perform in a real-time manner. Our article is concerned with camera and Lidar data fusion for better environment perception in self-driving cars, considering 3 main classes which are cars, cyclists and pedestrians. We fuse output from the 3D detector model that takes its input from Lidar as well as the output from the 2D detector that take its input from the camera, to give better perception output than any of them separately, ensuring that it is able to work in real-time. We addressed our problem using a 3D detector model (Complex-Yolov3) and a 2D detector model (Yolo-v3), wherein we applied the image-based fusion method that could make a fusion between Lidar and camera information with a fast and efficient late fusion technique that is discussed in detail in this article. We used the mean average precision (mAP) metric in order to evaluate our object detection model and to compare the proposed approach with them as well. At the end, we showed the results on the KITTI dataset as well as our real hardware setup, which consists of Lidar velodyne 16 and Leopard USB cameras. We used Python to develop our algorithm and then validated it on the KITTI dataset. We used ros2 along with C++ to verify the algorithm on our dataset obtained from our hardware configurations which proved that our proposed approach could give good results and work efficiently in practical situations in a real-time manner.
-
Нейросетевой анализ транспортных потоков городских агломераций на основе данных публичных камер видеообзора
Компьютерные исследования и моделирование, 2021, т. 13, № 2, с. 305-318Адекватное моделирование сложной динамики городских транспортных потоков требует сбора больших объемов данных для определения характера соответствующих моделей и их калибровки. Вместе с тем оборудование специализированных постов наблюдения является весьма затратным мероприятием и не всегда технически возможно. Совокупность этих факторов приводит к недостаточному фактографическому обеспечению как систем оперативного управления транспортными потоками, так и специалистов по транспортному планированию с очевидными последствиями для качества принимаемых решений. В качестве способа обеспечить массовый сбор данных хотя бы для качественного анализа ситуаций достаточно давно применяется обзорные видеокамеры, транслирующие изображения в определенные ситуационные центры, где соответствующие операторы осуществляют контроль и управление процессами. Достаточно много таких обзорных камер предоставляют данные своих наблюдений в общий доступ, что делает их ценным ресурсом для транспортных исследований. Вместе с тем получение количественных данных с таких камер сталкивается с существенными проблемами, относящимися к теории и практике обработки видеоизображений, чему и посвящена данная работа. В работе исследуется практическое применение некоторых мейнстримовских нейросетевых технологий для определения основных характеристик реальных транспортных потоков, наблюдаемых камерами общего доступа, классифицируются возникающие при этом проблемы и предлагаются их решения. Для отслеживания объектов дорожного движения применяются варианты сверточных нейронных сетей, исследуются способы их применения для определения базовых характеристик транспортных потоков. Простые варианты нейронной сети используются для автоматизации при получении обучающих примеров для более глубокой нейронной сети YOLOv4. Сеть YOLOv4 использована для оценки характеристик движения (скорость, плотность потока) для различных направлений с записей камер видеонаблюдения.
Ключевые слова: искусственные нейронные сети, машинное зрение, машинное обучение, сопровождение объекта, сверточные нейронные сети.
Neural network analysis of transportation flows of urban aglomeration using the data from public video cameras
Computer Research and Modeling, 2021, v. 13, no. 2, pp. 305-318Correct modeling of complex dynamics of urban transportation flows requires the collection of large volumes of empirical data to specify types of the modes and their identification. At the same time, setting a large number of observation posts is expensive and technically not always feasible. All this results in insufficient factographic support for the traffic control systems as well as for urban planners with the obvious consequences for the quality of their decisions. As one of the means to provide large-scale data collection at least for the qualitative situation analysis, the wide-area video cameras are used in different situation centers. There they are analyzed by human operators who are responsible for observation and control. Some video cameras provided their videos for common access, which makes them a valuable resource for transportation studies. However, there are significant problems with getting qualitative data from such cameras, which relate to the theory and practice of image processing. This study is devoted to the practical application of certain mainstream neuro-networking technologies for the estimation of essential characteristics of actual transportation flows. The problems arising in processing these data are analyzed, and their solutions are suggested. The convolution neural networks are used for tracking, and the methods for obtaining basic parameters of transportation flows from these observations are studied. The simplified neural networks are used for the preparation of training sets for the deep learning neural network YOLOv4 which is later used for the estimation of speed and density of automobile flows.
-
Влияние хвостовых плавников на скорость водного робота, приводимого в движение внутренними подвижными массами
Компьютерные исследования и моделирование, 2024, т. 16, № 4, с. 869-882В данной работе представлено описание конструкции водного робота, движущегося по поверхности жидкости и приводимого в движение двумя внутренними подвижными массами. Корпус водного робота в сечении имеет форму симметричного крылового профиля с острой кромкой. На данном прототипе две внутренние массы перемещаются по окружностям и приводятся во вращение за счет одного двигателя постоянного тока и зубчатого механизма, передающего вращательный момент от двигателя к каждой массе. В качестве управляющего воздействия используются угловые скорости подвижных масс, а разработанная кинематическая схема передачи вращения от двигателя к подвижным массам позволяет реализовать вращение двух масс с равными по модулю угловыми скоростями, но при этом разным направлением вращения. А также на корпус данного робота имеется возможность устанавливать дополнительные хвостовые плавники различных форм и размеров. Также в работе для данного объекта представлены уравнения движения, записанные в форме уравнений Кирхгофа для движения твердого тела в идеальной жидкости, дополненные слагаемыми вязкого сопротивления. Представлено математическое описание дополнительных сил, действующих на гибкий хвостовой плавник. С разработанным прототипом робота проведены экспериментальные исследования по влиянию различных хвостовых плавников на скорость передвижения в жидкости. В данной работе на робота устанавливались хвостовые плавники одной формы и размеров, при этом обладающие разной жесткостью. Эксперименты проводились в бассейне с водой, над которым устанавливалась камера, на которую были получены видеозаписи всех экспериментов. Дальнейшая обработка видеозаписей позволила получить перемещения объекта, а также его линейные и угловые скорости. В работе показано различие в развиваемых роботом скоростях при движении без хвостового плавника, а также с хвостовыми плавниками, имеющими разную жесткость. Приведено сравнение развиваемых роботом скоростей, полученных в экспериментальных исследованиях, с результатами математического моделирования системы.
Ключевые слова: мобильный робот, водный робот, моделирование движения, экспериментальные исследования.
The influence of tail fins on the speed of an aquatic robot driven by internal moving masses
Computer Research and Modeling, 2024, v. 16, no. 4, pp. 869-882This paper describes the design of an aquatic robot moving on the surface of a fluid and driven by two internal moving masses. The body of the aquatic robot in cross section has the shape of a symmetrical airfoil with a sharp edge. In this prototype, two internal masses move in circles and are rotated by a single DC motor and a gear mechanism that transmits torque from the motor to each mass. Angular velocities of moving masses are used as a control action, and the developed kinematic scheme for transmitting rotation from the motor to the moving masses allows the rotation of two masses with equal angular velocities in magnitude, but with a different direction of rotation. It is also possible to install additional tail fins of various shapes and sizes on the body of this robot. Also in the work for this object, the equations of motion are presented, written in the form of Kirchhoff equations for the motion of a solid body in an ideal fluid, which are supplemented by terms of viscous resistance. A mathematical description of the additional forces acting on the flexible tail fin is presented. Experimental studies on the influence of various tail fins on the speed of motion in the fluid were carried out with the developed prototype of the robot. In this work, tail fins of the same shape and size were installed on the robot, while having different stiffness. The experiments were carried out in a pool with water, over which a camera was installed, on which video recordings of all the experiments were obtained. Next processing of the video recordings made it possible to obtain the object’s movements coordinates, as well as its linear and angular velocities. The paper shows the difference in the velocities developed by the robot when moving without a tail fin, as well as with tail fins having different stiffness. The comparison of the velocities developed by the robot, obtained in experimental studies, with the results of mathematical modeling of the system is given.
-
Двухпроходная модель Feature-Fused SSD для детекции разномасштабных изображений рабочих на строительной площадке
Компьютерные исследования и моделирование, 2023, т. 15, № 1, с. 57-73При распознавании рабочих на изображениях строительной площадки, получаемых с камер наблюдения, типичной является ситуация, при которой объекты детекции имеют сильно различающийся пространственный масштаб относительно друг друга и других объектов. Повышение точности детекции мелких объектов может быть обеспечено путем использования Feature-Fused модификации детектора SSD (Single Shot Detector). Вместе с применением на инференсе нарезки изображения с перекрытием такая модель хорошо справляется с детекцией мелких объектов. Однако при практическом использовании данного подхода требуется ручная настройка параметров нарезки. При этом снижается точность детекции объектов на сценах, отличающихся от сцен, использованных при обучении, а также крупных объектов. В данной работе предложен алгоритм автоматического выбора оптимальных параметров нарезки изображения в зависимости от соотношений характерных геометрических размеров объектов на изображении. Нами разработан двухпроходной вариант детектора Feature-Fused SSD для автоматического определения параметров нарезки изображения. На первом проходе применяется усеченная версия детектора, позволяющая определять характерные размеры объектов интереса. На втором проходе осуществляется финальная детекция объектов с параметрами нарезки, выбранными после первого прохода. Был собран датасет с изображениями рабочих на строительной площадке. Датасет включает крупные, мелкие и разноплановые изображения рабочих. Для сравнения результатов детекции для однопроходного алгоритма без разбиения входного изображения, однопроходного алгоритма с равномерным разбиением и двухпроходного алгоритма с подбором оптимального разбиения рассматривались тесты по детекции отдельно крупных объектов, очень мелких объектов, с высокой плотностью объектов как на переднем, так и на заднем плане, только на заднем плане. В диапазоне рассмотренных нами случаев наш подход превосходит подходы, взятые в сравнение, позволяет хорошо бороться с проблемой двойных детекций и демонстрирует качество 0,82–0,91 по метрике mAP (mean Average Precision).
Dual-pass Feature-Fused SSD model for detecting multi-scale images of workers on the construction site
Computer Research and Modeling, 2023, v. 15, no. 1, pp. 57-73When recognizing workers on images of a construction site obtained from surveillance cameras, a situation is typical in which the objects of detection have a very different spatial scale relative to each other and other objects. An increase in the accuracy of detection of small objects can be achieved by using the Feature-Fused modification of the SSD detector. Together with the use of overlapping image slicing on the inference, this model copes well with the detection of small objects. However, the practical use of this approach requires manual adjustment of the slicing parameters. This reduces the accuracy of object detection on scenes that differ from the scenes used in training, as well as large objects. In this paper, we propose an algorithm for automatic selection of image slicing parameters depending on the ratio of the characteristic geometric dimensions of objects in the image. We have developed a two-pass version of the Feature-Fused SSD detector for automatic determination of optimal image slicing parameters. On the first pass, a fast truncated version of the detector is used, which makes it possible to determine the characteristic sizes of objects of interest. On the second pass, the final detection of objects with slicing parameters selected after the first pass is performed. A dataset was collected with images of workers on a construction site. The dataset includes large, small and diverse images of workers. To compare the detection results for a one-pass algorithm without splitting the input image, a one-pass algorithm with uniform splitting, and a two-pass algorithm with the selection of the optimal splitting, we considered tests for the detection of separately large objects, very small objects, with a high density of objects both in the foreground and in the background, only in the background. In the range of cases we have considered, our approach is superior to the approaches taken in comparison, allows us to deal well with the problem of double detections and demonstrates a quality of 0.82–0.91 according to the mAP (mean Average Precision) metric.
-
Моделирование погрешностей измерений диаметра широкоапертурного лазерного пучка c плоским профилем
Компьютерные исследования и моделирование, 2015, т. 7, № 1, с. 113-124Работа посвящена моделированию инструментальных погрешностей измерения диаметра лазерного пучка при использовании метода на основе ламбертовски рассеивающего на просвет экрана. В качестве модели пучка использовалось суперлоренцево распределение. Для определения влияния на погрешность измерения каждого из параметров проводились вычислительные эксперименты, результаты которых аппроксимировались аналитическими функциями. Были получены зависимости погрешностей от относительного размера пучка, пространственной неравномерности пропускания экрана, дисторсии объектива, физического виньетирования, наклона пучка, пространственного разрешения матрицы, разрядности АЦП-камеры. Показано, что погрешность может быть менее 1 %.
Ключевые слова: лазерный пучок, диаметр лазерного пучка, моделирование погрешностей, суперлоренцево распределение.
Modelling diameter measurement errors of a wide-aperture laser beam with flat profile
Computer Research and Modeling, 2015, v. 7, no. 1, pp. 113-124Просмотров за год: 3. Цитирований: 3 (РИНЦ).Work is devoted to modeling instrumental errors of a laser beam diameter measurement using a method based on a lambertian transmissive screen. Super-Lorenz distribution was used as a model of the beam. To determine the effect of each parameter on the measurement error were performed computational experiments, results of which were approximated by analytic functions. There were obtained the errors depending on relative beam size, spatial non-uniformity of the transmission screen, lens distortion, physical vignetting, beam tilt, CCD spatial resolution, ADC resolution of a camera. There was shown that the error can be less then 1 %.
-
Анализ алгоритмов совместной глобальной локализации устройств смешанной реальности на основе регистрации облаков точек
Компьютерные исследования и моделирование, 2023, т. 15, № 3, с. 657-674Современные подходы локализации и построения карты для устройств дополненной (AR) и смешанной (MR) реальности основаны на извлечении локальных признаков с камеры. Наряду с этим современные устройства AR/MR позволяют строить трехмерную сетку окружающего пространства. Однако существующие методы не решают задачу глобальной совместной локализации устройства из-за применения разных дескрипторов для вычисления признаков с изображений. Используя карту пространства из трехмерной сетки, мы можем решить проблему совместной глобальной локализации устройств AR/MR. Этот подход не зависит от типа дескрипторов функций и алгоритмов локализации и картографирования, используемых на борту устройства AR/MR. Сетку можно свести к облаку точек, которое состоит только из вершин сетки. Мы предлагаем подход для совместной локализации устройств AR/MR с использованием облаков точек, которые не зависят от алгоритмов на борту устройства. Мы проанализировали различные алгоритмы регистрации облаков точек и обсудили их ограничения для задачи совместной глобальной локализации устройств AR/MR в помещении.
Ключевые слова: совместная локализация, дополненная и смешанная реальность, регистрация облаков точек.
Analysis of mixed reality cross-device global localization algorithms based on point cloud registration
Computer Research and Modeling, 2023, v. 15, no. 3, pp. 657-674State-of-the-art localization and mapping approaches for augmented (AR) and mixed (MR) reality devices are based on the extraction of local features from the camera. Along with this, modern AR/MR devices allow you to build a three-dimensional mesh of the surrounding space. However, the existing methods do not solve the problem of global device co-localization due to the use of different methods for extracting computer vision features. Using a space map from a 3D mesh, we can solve the problem of collaborative global localization of AR/MR devices. This approach is independent of the type of feature descriptors and localisation and mapping algorithms used onboard the AR/MR device. The mesh can be reduced to a point cloud, which consists of only the vertices of the mesh. We propose an approach for collaborative localization of AR/MR devices using point clouds that are independent of algorithms onboard the device. We have analyzed various point cloud registration algorithms and discussed their limitations for the problem of global co-localization of AR/MR devices indoors.
-
Повышение качества генерации маршрутов в SUMO на основе данных с детекторов с использованием обучения с подкреплением
Компьютерные исследования и моделирование, 2024, т. 16, № 1, с. 137-146Данная работа предлагает новый подход к построению высокоточных маршрутов на основе данных от транспортных детекторов в пакете моделирования трафика SUMO. Существующие инструменты, такие как flowrouter и routeSampler, имеют ряд недостатков, таких как отсутствие взаимодействия с сетью в процессе построения маршрутов. Наш rlRouter использует мультиагентное обучение с подкреплением (MARL), где агенты — это входящие полосы движения, а окружающая среда — дорожная сеть. Добавляя в сеть транспортные средства с определенными маршрутами, агенты получают вознаграждение за сопоставление данных с детекторами транспорта. В качестве алгоритма мультиагентного обучения с подкреплением использовался DQN с разделением параметров между агентами и LSTM-слоем для обработки последовательных данных.
Поскольку rlRouter обучается внутри симуляции SUMO, он может лучше восстанавливать маршруты, принимая во внимание взаимодействие транспортных средств внутри сети друг с другом и с сетевой инфраструктурой. Мы смоделировали различные дорожные ситуации на трех разных перекрестках, чтобы сравнить производительность маршрутизаторов SUMO с rlRouter. Мы использовали среднюю абсолютную ошибку (MAE) в качестве меры отклонения кумулятивных данных детекторов и от данных маршрутов. rlRouter позволил добиться высокого соответствия данным с детекторов. Мы также обнаружили, что, максимизируя вознаграждение за соответствие детекторам, результирующие маршруты также становятся ближе к реальным. Несмотря на то, что маршруты, восстановленные с помощью rlRouter, превосходят маршруты, полученные с помощью инструментов SUMO, они не полностью соответствуют реальным из-за естественных ограничений петлевых детекторов. Чтобы обеспечить более правдоподобные маршруты, необходимо оборудовать перекрестки другими видами транспортных счетчиков, например, детекторами-камерами.
Ключевые слова: транспортное моделирование, мультиагентное обучение с подкреплением, интеллектуальные транспортные системы.
Improving the quality of route generation in SUMO based on data from detectors using reinforcement learning
Computer Research and Modeling, 2024, v. 16, no. 1, pp. 137-146This work provides a new approach for constructing high-precision routes based on data from transport detectors inside the SUMO traffic modeling package. Existing tools such as flowrouter and routeSampler have a number of disadvantages, such as the lack of interaction with the network in the process of building routes. Our rlRouter uses multi-agent reinforcement learning (MARL), where the agents are incoming lanes and the environment is the road network. By performing actions to launch vehicles, agents receive a reward for matching data from transport detectors. Parameter Sharing DQN with the LSTM backbone of the Q-function was used as an algorithm for multi-agent reinforcement learning.
Since the rlRouter is trained inside the SUMO simulation, it can restore routes better by taking into account the interaction of vehicles within the network with each other and with the network infrastructure. We have modeled diverse traffic situations on three different junctions in order to compare the performance of SUMO’s routers with the rlRouter. We used Mean Absoluter Error (MAE) as the measure of the deviation from both cumulative detectors and routes data. The rlRouter achieved the highest compliance with the data from the detectors. We also found that by maximizing the reward for matching detectors, the resulting routes also get closer to the real ones. Despite the fact that the routes recovered using rlRouter are superior to the routes obtained using SUMO tools, they do not fully correspond to the real ones, due to the natural limitations of induction-loop detectors. To achieve more plausible routes, it is necessary to equip junctions with other types of transport counters, for example, camera detectors.
-
Разработка интеллектуальной системы определения объемно-весовых характеристик груза
Компьютерные исследования и моделирование, 2021, т. 13, № 2, с. 437-450Промышленная обработка изображений или «машинное зрение» в настоящее время является ключевой технологией во многих отраслях, поскольку эта технология может использоваться для оптимизации различных процессов. Целью настоящей работы является создание программно-аппаратного комплекса измерения габаритно-весовых характеристик груза на базе интеллектуальной системы, основанной на нейросетевых способах идентификации, позволяющих преодолеть технологические ограничения аналогичных комплексов, реализованных на ультразвуковых и инфракрасных измерительных датчиках. Разрабатываемый комплекс будет производить измерения грузов без ограничения на объемные и весовые характеристики груза, который необходимо тарифицировать и сортировать в рамках работы складских комплексов. В состав системы будет входить интеллектуальная компьютерная программа, определяющая объемно-весовые характеристики груза с использованием технологии машинного зрения и экспериментальный образец стенда измерения объёма и веса груза.
Проведен анализ исследований, посвященных решению аналогичных задач. Отмечено, что недостатком изученных способов являются очень высокие требования к расположению камеры, а также необходимость ручной работы при вычислении размеров, автоматизировать которую не представляется возможным без существенных доработок. В процессе работы исследованы различные способы распознавания объектов на изображениях с целью проведения предметной фильтрации по наличию груза и измерения его габаритных размеров. Получены удовлетворительные результаты при применении камер, сочетающих в себе как оптический способ захвата изображений, так и инфракрасные датчики. В результате работы разработана компьютерная программа, позволяющая захватывать непрерывный поток с видеокамер Intel RealSense с последующим извлечением из обозначенной области трехмерный объект и вычислять габаритные размеры объекта. На данном этапе выполнено: проведен анализ методик компьютерного зрения; разработан алгоритм для реализации задачи автоматического измерения грузов с использованием специальных камер; разработано программное обеспечение, позволяющее получать габаритные размеры объектов в автоматическом режиме.
Данная разработка по завершении работы может применяться как готовое решение для транспортных компаний, логистических центров, складов крупных производственных и торговых предприятий.
The development of an intelligent system for recognizing the volume and weight characteristics of cargo
Computer Research and Modeling, 2021, v. 13, no. 2, pp. 437-450Industrial imaging or “machine vision” is currently a key technology in many industries as it can be used to optimize various processes. The purpose of this work is to create a software and hardware complex for measuring the overall and weight characteristics of cargo based on an intelligent system using neural network identification methods that allow one to overcome the technological limitations of similar complexes implemented on ultrasonic and infrared measuring sensors. The complex to be developed will measure cargo without restrictions on the volume and weight characteristics of cargo to be tariffed and sorted within the framework of the warehouse complexes. The system will include an intelligent computer program that determines the volume and weight characteristics of cargo using the machine vision technology and an experimental sample of the stand for measuring the volume and weight of cargo.
We analyzed the solutions to similar problems. We noted that the disadvantages of the studied methods are very high requirements for the location of the camera, as well as the need for manual operations when calculating the dimensions, which cannot be automated without significant modifications. In the course of the work, we investigated various methods of object recognition in images to carry out subject filtering by the presence of cargo and measure its overall dimensions. We obtained satisfactory results when using cameras that combine both an optical method of image capture and infrared sensors. As a result of the work, we developed a computer program allowing one to capture a continuous stream from Intel RealSense video cameras with subsequent extraction of a three-dimensional object from the designated area and to calculate the overall dimensions of the object. At this stage, we analyzed computer vision techniques; developed an algorithm to implement the task of automatic measurement of goods using special cameras and the software allowing one to obtain the overall dimensions of objects in automatic mode.
Upon completion of the work, this development can be used as a ready-made solution for transport companies, logistics centers, warehouses of large industrial and commercial enterprises.
-
Использование реальных данных из нескольких источников для оптимизации транспортных потоков в пакете CTraf
Компьютерные исследования и моделирование, 2024, т. 16, № 1, с. 147-159Рассмотрена задача оптимального управления транспортным потоком в сети городских дорог. Управление осуществляется изменением длительностей рабочих фаз светофоров на регулируемых перекрестках. Приведено описание разработанной системы управления. В системе управления предусмотрено использование трех видов управлений: программного, с обратной связью и ручного. При управлении с обратной связью для определения количественных характеристик транспортного потока используются детекторы дорожной инфраструктуры, видеокамеры, индуктивные петлевые и радиолокационные датчики. Обработка сигналов с детекторов позволяет определить состояние транспортного потока в каждый текущий момент времени. Для определения моментов переключения рабочих фаз светофоров количественные характеристики транспортных потоков поступают в математическую модель транспортного потока, реализованную в вычислительной среде системы автоматического управления транспортными потоками. Модель представляет собой систему конечно-разностных рекуррентных уравнений и описывает изменение транспортного потока на каждом участке дороги в каждый такт времени на основе рассчитанных данных по характеристикам транспортного потока в сети, пропускным способностям маневров и распределению потока на перекрестках с альтернативными направлениями движения. Модель обладает свойствами масштабирования и агрегирования. Структура модели зависит от структуры графа управляемой сети дорог, а количество узлов в графе равно количеству рассматриваемых участков дорог сети. Моделирование изменений транспортного потока в режиме реального времени позволяет оптимально определять длительности рабочих фаз светофоров и обеспечивать управление транспортным потоком с обратной связью по его текущему состоянию. В работе рассмотрена система автоматического сбора и обработки данных, поступающих в модель. Для моделирования состояний транспортного потока в сети и решения задачи оптимального управления транспортным потоком разработан программный комплекс CTraf, краткое описание которого представлено в работе. Приведен пример решения задачи оптимального управления транспортным потокам в сети дорог города Москва на основе реальных данных.
Ключевые слова: управление транспортными потоками, оптимальное управление, моделирование транспортных потоков, эволюционные вычисления, обработка гетерогенных данных.
Utilizing multi-source real data for traffic flow optimization in CTraf
Computer Research and Modeling, 2024, v. 16, no. 1, pp. 147-159The problem of optimal control of traffic flow in an urban road network is considered. The control is carried out by varying the duration of the working phases of traffic lights at controlled intersections. A description of the control system developed is given. The control system enables the use of three types of control: open-loop, feedback and manual. In feedback control, road infrastructure detectors, video cameras, inductive loop and radar detectors are used to determine the quantitative characteristics of current traffic flow state. The quantitative characteristics of the traffic flows are fed into a mathematical model of the traffic flow, implemented in the computer environment of an automatic traffic flow control system, in order to determine the moments for switching the working phases of the traffic lights. The model is a system of finite-difference recurrent equations and describes the change in traffic flow on each road section at each time step, based on retrived data on traffic flow characteristics in the network, capacity of maneuvers and flow distribution through alternative maneuvers at intersections. The model has scaling and aggregation properties. The structure of the model depends on the structure of the graph of the controlled road network. The number of nodes in the graph is equal to the number of road sections in the considered network. The simulation of traffic flow changes in real time makes it possible to optimally determine the duration of traffic light operating phases and to provide traffic flow control with feedback based on its current state. The system of automatic collection and processing of input data for the model is presented. In order to model the states of traffic flow in the network and to solve the problem of optimal traffic flow control, the CTraf software package has been developed, a brief description of which is given in the paper. An example of the solution of the optimal control problem of traffic flows on the basis of real data in the road network of Moscow is given.
Журнал индексируется в Scopus
Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU
Журнал входит в систему Российского индекса научного цитирования.
Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science
Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"