Текущий выпуск Номер 1, 2025 Том 17

Все выпуски

Результаты поиска по 'metric':
Найдено статей: 35
  1. Суччи Д., Иванов В.В.
    Сравнение мобильных операционных систем на основе моделей роста надежности программного обеспечения
    Компьютерные исследования и моделирование, 2018, т. 10, № 3, с. 325-334

    Оценка надежности программного обеспечения (ПО) — важная составляющая процесса разработки современного программного обеспечения. Многие исследования направлены на улучшение моделей для измерения и прогнозирования надежности программных продуктов. Однако мало внимания уделяется подходам к сопоставлению существующих систем с точки зрения надежности ПО. Несмотря на огромное значение для практики (и для управления разработкой ПО), полной и проверенной методологии сравнения не существует. В этой статье мы предлагаем методологию сравнения надежности программного обеспечения, в которой широко применяются модели роста надежности программного обеспечения. Методология была оценена на примере трех мобильных операционных систем с открытым исходным кодом: Sailfish, Tizen, CyanogenMod.

    Побочным продуктом исследования является сравнение трех мобильных операционных систем с открытым исходным кодом. Целью данного исследования является определение того, какая ОС является более надежной. Для этого были определены 3 вопроса и 8 метрик. С учетом сравнения этих метрик оказалось, что Sailfish в большинстве случаев является самой эффективной операционной системой. Напротив, Tizen показывает лучшее в 3 случаях из 8, но оказывается хуже других систем только в одном случае из 8.

    Succi G., Ivanov V.V.
    Comparison of mobile operating systems based on models of growth reliability of the software
    Computer Research and Modeling, 2018, v. 10, no. 3, pp. 325-334

    Evaluation of software reliability is an important part of the process of developing modern software. Many studies are aimed at improving models for measuring and predicting the reliability of software products. However, little attention is paid to approaches to comparing existing systems in terms of software reliability. Despite the enormous importance for practice (and for managing software development), a complete and proven comparison methodology does not exist. In this article, we propose a software reliability comparison methodology in which software reliability growth models are widely used. The proposed methodology has the following features: it provides certain level of flexibility and abstraction while keeping objectivity, i.e. providing measurable comparison criteria. Also, given the comparison methodology with a set of SRGMs and evaluation criteria it becomes much easier to disseminate information about reliability of wide range of software systems. The methodology was evaluated on the example of three mobile operating systems with open source: Sailfish, Tizen, CyanogenMod.

    A byproduct of our study is a comparison of the three analyzed Open Source mobile operating systems. The goal of this research is to determine which OS is stronger in terms of reliability. To this end we have performed a GQM analysis and we have identified 3 questions and 8 metrics. Considering the comparison of metrics, it appears that Sailfish is in most case the best performing OS. However, it is also the OS that performs the worst in most cases. On the contrary, Tizen scores the best in 3 cases out of 8, but the worst only in one case out of 8.

    Просмотров за год: 29.
  2. Шабанов А.Э., Петров М.Н., Чикиткин А.В.
    Многослойная нейронная сеть для определения размеров наночастиц в задаче лазерной спектрометрии
    Компьютерные исследования и моделирование, 2019, т. 11, № 2, с. 265-273

    Решение задачи лазерной спектрометрии позволяет определять размеры частиц в растворе по спектру интенсивности рассеянного света. В результате эксперимента методом динамического рассеяния света получается кривая интенсивности рассеяния, по которой необходимо определить, частицы каких размеров представлены в растворе. Экспериментально полученный спектр интенсивности сравнивается с теоретически ожидаемым спектром, который является кривой Лоренца. Основная задача сводится к тому, чтобы на основании этих данных найти относительные концентрации частиц каждого сорта, представленных в растворе. В статье представлен способ построения и использования нейронной сети, обученной на синтетических данных, для определения размера частиц в растворе в диапазоне 1–500 нм. Нейронная сеть имеет полносвязный слой из 60 нейронов с функцией активации RELU на выходе, слой из 45 нейронов и с аналогичной функцией активации, слой dropout и 2 слоя с количеством нейронов 15 и 1 (выход сети). В статье описано, как сеть обучалась и тестировалась на синтетических и экспериментальных данных. На синтетических данных метрика «среднеквадратичное отклонение» (rmse) дала значение 1.3157 нм. Экспериментальные данные были получены для размеров частиц 200 нм, 400 нм и раствора с представителями обоих размеров. Сравниваются результаты работы нейронной сети и классических линейных методов, основанных на применении различных регуляризаций за счет введения дополнительных параметров и применяемых для определения размера частиц. К недостаткам классических методов можно отнести трудность автоматического определения степени регуляризации: слишком сильная регуляризация приводит к тому, что кривые распределения частиц по размерам сильно сглаживаются, а слабая регуляризация дает осциллирующие кривые и низкую надежность результатов. В работе показано, что нейронная сеть дает хорошее предсказание для частиц с большим размером. Для малых размеров предсказание хуже, но ошибка быстро уменьшается с увеличением размера.

    Shabanov A.E., Petrov M.N., Chikitkin A.V.
    A multilayer neural network for determination of particle size distribution in Dynamic Light Scattering problem
    Computer Research and Modeling, 2019, v. 11, no. 2, pp. 265-273

    Solution of Dynamic Light Scattering problem makes it possible to determine particle size distribution (PSD) from the spectrum of the intensity of scattered light. As a result of experiment, an intensity curve is obtained. The experimentally obtained spectrum of intensity is compared with the theoretically expected spectrum, which is the Lorentzian line. The main task is to determine on the basis of these data the relative concentrations of particles of each class presented in the solution. The article presents a method for constructing and using a neural network trained on synthetic data to determine PSD in a solution in the range of 1–500 nm. The neural network has a fully connected layer of 60 neurons with the RELU activation function at the output, a layer of 45 neurons and the same activation function, a dropout layer and 2 layers with 15 and 1 neurons (network output). The article describes how the network has been trained and tested on synthetic and experimental data. On the synthetic data, the standard deviation metric (rmse) gave a value of 1.3157 nm. Experimental data were obtained for particle sizes of 200 nm, 400 nm and a solution with representatives of both sizes. The results of the neural network and the classical linear methods are compared. The disadvantages of the classical methods are that it is difficult to determine the degree of regularization: too much regularization leads to the particle size distribution curves are much smoothed out, and weak regularization gives oscillating curves and low reliability of the results. The paper shows that the neural network gives a good prediction for particles with a large size. For small sizes, the prediction is worse, but the error quickly decreases as the particle size increases.

    Просмотров за год: 16.
  3. Петров М.Н., Зимина С.В., Дьяченко Д.Л., Дубоделов А.В., Симаков С.С.
    Двухпроходная модель Feature-Fused SSD для детекции разномасштабных изображений рабочих на строительной площадке
    Компьютерные исследования и моделирование, 2023, т. 15, № 1, с. 57-73

    При распознавании рабочих на изображениях строительной площадки, получаемых с камер наблюдения, типичной является ситуация, при которой объекты детекции имеют сильно различающийся пространственный масштаб относительно друг друга и других объектов. Повышение точности детекции мелких объектов может быть обеспечено путем использования Feature-Fused модификации детектора SSD (Single Shot Detector). Вместе с применением на инференсе нарезки изображения с перекрытием такая модель хорошо справляется с детекцией мелких объектов. Однако при практическом использовании данного подхода требуется ручная настройка параметров нарезки. При этом снижается точность детекции объектов на сценах, отличающихся от сцен, использованных при обучении, а также крупных объектов. В данной работе предложен алгоритм автоматического выбора оптимальных параметров нарезки изображения в зависимости от соотношений характерных геометрических размеров объектов на изображении. Нами разработан двухпроходной вариант детектора Feature-Fused SSD для автоматического определения параметров нарезки изображения. На первом проходе применяется усеченная версия детектора, позволяющая определять характерные размеры объектов интереса. На втором проходе осуществляется финальная детекция объектов с параметрами нарезки, выбранными после первого прохода. Был собран датасет с изображениями рабочих на строительной площадке. Датасет включает крупные, мелкие и разноплановые изображения рабочих. Для сравнения результатов детекции для однопроходного алгоритма без разбиения входного изображения, однопроходного алгоритма с равномерным разбиением и двухпроходного алгоритма с подбором оптимального разбиения рассматривались тесты по детекции отдельно крупных объектов, очень мелких объектов, с высокой плотностью объектов как на переднем, так и на заднем плане, только на заднем плане. В диапазоне рассмотренных нами случаев наш подход превосходит подходы, взятые в сравнение, позволяет хорошо бороться с проблемой двойных детекций и демонстрирует качество 0,82–0,91 по метрике mAP (mean Average Precision).

    Petrov M.N., Zimina S.V., Dyachenko D.L., Dubodelov A.V., Simakov S.S.
    Dual-pass Feature-Fused SSD model for detecting multi-scale images of workers on the construction site
    Computer Research and Modeling, 2023, v. 15, no. 1, pp. 57-73

    When recognizing workers on images of a construction site obtained from surveillance cameras, a situation is typical in which the objects of detection have a very different spatial scale relative to each other and other objects. An increase in the accuracy of detection of small objects can be achieved by using the Feature-Fused modification of the SSD detector. Together with the use of overlapping image slicing on the inference, this model copes well with the detection of small objects. However, the practical use of this approach requires manual adjustment of the slicing parameters. This reduces the accuracy of object detection on scenes that differ from the scenes used in training, as well as large objects. In this paper, we propose an algorithm for automatic selection of image slicing parameters depending on the ratio of the characteristic geometric dimensions of objects in the image. We have developed a two-pass version of the Feature-Fused SSD detector for automatic determination of optimal image slicing parameters. On the first pass, a fast truncated version of the detector is used, which makes it possible to determine the characteristic sizes of objects of interest. On the second pass, the final detection of objects with slicing parameters selected after the first pass is performed. A dataset was collected with images of workers on a construction site. The dataset includes large, small and diverse images of workers. To compare the detection results for a one-pass algorithm without splitting the input image, a one-pass algorithm with uniform splitting, and a two-pass algorithm with the selection of the optimal splitting, we considered tests for the detection of separately large objects, very small objects, with a high density of objects both in the foreground and in the background, only in the background. In the range of cases we have considered, our approach is superior to the approaches taken in comparison, allows us to deal well with the problem of double detections and demonstrates a quality of 0.82–0.91 according to the mAP (mean Average Precision) metric.

  4. Казорин В.И., Холодов Я.А.
    Фреймворк sumo-atclib для моделирования адаптивного управления трафиком дорожной сети
    Компьютерные исследования и моделирование, 2024, т. 16, № 1, с. 69-78

    В данной статье предлагается фреймворк sumo-atclib, который предоставляет удобный единообразный интерфейс для апробации разных по ограничениям алгоритмов адаптивного управления, например ограничения на длительности фаз, последовательности фаз, ограничения на минимальное время между управляющими воздействиями, который использует среду микроскопического моделирования транспорта с открытым исходным кодом SUMO. Фреймворк разделяет функционал контроллеров (класс TrafficController) и систему наблюдения и детектирования (класс StateObserver), что повторяет архитектуру реальных светофорных объектов и систем адаптивного управления и упрощает апробацию новыха лгоритмов, так как можно свободно варьировать сочетания разных контроллеров и систем детектирования транспортных средств. Также в отличие от большинства существующих решений добавлен класс дороги Road, который объединяет набор полос, это позволяет, например, определить смежность регулируемых перекрестков, в случаях когда на пути от одного перекрестка к другому количество полос меняется, а следовательно, граф дороги разбивается на несколько ребер. При это сами алгоритмы используют одинаковый интерфейс и абстрагированы от конкретных параметров детекторов, топологии сети, то есть предполагается, что это решение позволит транспортному инженеру протестировать уже готовые алгоритмы для нового сценария, без необходимости их адаптации под новые условия, что ускоряет процесс разработки управляющей системы и снижает накладные расходы на проектирование. В настоящий момент в пакете есть примеры алгоритмов MaxPressure и метода обучения с подкреплением Q-learning, база примеров также пополняется. Также фреймворк включает в себя набор сценариев SUMO для тестирования алгоритмов, в который входят как синтетические карты, так и хорошо верифицированные SUMO-сценарии, такие как Cologne и Ingolstadt. Кроме того, фреймворк предоставляет некоторый набор автоматически подсчитываемых метрик, таких как полное время в пути, время задержки, средняя скорость; также в фреймворке представлен готовый пример для визуализации метрик.

    Kazorin V.I., Kholodov Y.A.
    Framework sumo-atclib for adaptive traffic control modeling
    Computer Research and Modeling, 2024, v. 16, no. 1, pp. 69-78

    This article proposes the sumo-atclib framework, which provides a convenient uniform interface for testing adaptive control algorithms with different limitations, for example, restrictions on phase durations, phase sequences, restrictions on the minimum time between control actions, which uses the open source microscopic transport modeling environment SUMO. The framework shares the functionality of controllers (class TrafficController) and a monitoring and detection system (class StateObserver), which repeats the architecture of real traffic light objects and adaptive control systems and simplifies the testing of new algorithms, since combinations of different controllers and vehicle detection systems can be freely varied. Also, unlike most existing solutions, the road class Road has been added, which combines a set of lanes, this allows, for example, to determine the adjacency of regulated intersections, in cases when the number of lanes changes on the way from one intersection to another, and therefore the road graph is divided into several edges. At the same time, the algorithms themselves use the same interface and are abstracted from the specific parameters of the detectors, network topologies, that is, it is assumed that this solution will allow the transport engineer to test ready-made algorithms for a new scenario, without the need to adapt them to new conditions, which speeds up the development process of the control system, and reduces design overhead. At the moment, the package contains examples of MaxPressure algorithms and the Q-learning reinforcement learning method, the database of examples is also being updated. The framework also includes a set of SUMO scripts for testing algorithms, which includes both synthetic maps and well-verified SUMO scripts such as Cologne and Ingolstadt. In addition, the framework provides a set of automatically calculated metrics, such as total travel time, delay time, average speed; the framework also provides a ready-made example for visualization of metrics.

  5. Кочергин А.В., Холматова З.Ш.
    Извлечение персонажей и событий из повествований
    Компьютерные исследования и моделирование, 2024, т. 16, № 7, с. 1593-1600

    Извлечение событий и персонажей из повествований является фундаментальной задачей при анализе и обработке текста на естественном языке. Методы извлечения событий применяются в самых разных областях — от обобщения различных документов до анализа медицинских записей. Мы определяли события на основе структуры под названием «четыре W» (кто, что, когда, где), чтобы охватить все основные компоненты событий, такие как действующие лица, действия, время и места. В этой статье мы рассмотрели два основных метода извлечения событий: статистический анализ синтаксических деревьев и семантическая маркировка ролей. Хотя эти методы были изучены разными исследователями по отдельности, мы напрямую сравнили эффективность двух подходов на собранном нами наборе данных, который мы разметили.

    Наш анализ показал, что статистический анализ синтаксических деревьев превосходит семантическую маркировку ролей при выделении событий и символов, особенно при определении конкретных деталей. Тем не менее, семантическая маркировка ролей продемонстрировала хорошую эффективность при правильной идентификации действующих лиц. Мы оценили эффективность обоих подходов, сравнив различные показатели, такие как точность, отзывчивость и F1-баллы, продемонстрировав, таким образом, их соответствующие преимущества и ограничения.

    Более того, в рамках нашей работы мы предложили различные варианты применения методов извлечения событий, которые мы планируем изучить в дальнейшем. Области, в которых мы хотим применить эти методы, включают анализ кода и установление авторства исходного кода. Мы рассматриваем возможность использования методов извлечения событий для определения ключевых элементов кода в виде назначений переменных и вызовов функций, что в дальнейшем может помочь ученым проанализировать поведение программ и определить участников проекта. Наша работа дает новое понимание эффективности статистического анализа и методов семантической маркировки ролей, предлагая исследователям новые направления для применения этих методов.

    Kochergin A.V., Kholmatova Z.Sh.
    Extraction of characters and events from narratives
    Computer Research and Modeling, 2024, v. 16, no. 7, pp. 1593-1600

    Events and character extraction from narratives is a fundamental task in text analysis. The application of event extraction techniques ranges from the summarization of different documents to the analysis of medical notes. We identify events based on a framework named “four W” (Who, What, When, Where) to capture all the essential components like the actors, actions, time, and places. In this paper, we explore two prominent techniques for event extraction: statistical parsing of syntactic trees and semantic role labeling. While these techniques were investigated by different researchers in isolation, we directly compare the performance of the two approaches on our custom dataset, which we have annotated.

    Our analysis shows that statistical parsing of syntactic trees outperforms semantic role labeling in event and character extraction, especially in identifying specific details. Nevertheless, semantic role labeling demonstrate good performance in correct actor identification. We evaluate the effectiveness of both approaches by comparing different metrics like precision, recall, and F1-scores, thus, demonstrating their respective advantages and limitations.

    Moreover, as a part of our work, we propose different future applications of event extraction techniques that we plan to investigate. The areas where we want to apply these techniques include code analysis and source code authorship attribution. We consider using event extraction to retrieve key code elements as variable assignments and function calls, which can further help us to analyze the behavior of programs and identify the project’s contributors. Our work provides novel understandings of the performance and efficiency of statistical parsing and semantic role labeling techniques, offering researchers new directions for the application of these techniques.

  6. Москалев П.В.
    Перколяционное моделирование гидравлического гистерезиса в пористой среде
    Компьютерные исследования и моделирование, 2014, т. 6, № 4, с. 543-558

    В работе рассматриваются различные модели гидравлического гистерезиса, возникающего при инвазивной ртутной порометрии. Для моделирования гидравлического гистерезиса используется изотропная перколяция узлов на трехмерных квадратных решетках с $(1,\,\pi)$-окрестностью. Феноменологически исследуется взаимосвязь данных инвазивной порометрии с параметрами перколяционной модели. Реализация перколяционной модели основана на библиотеках SPSL и SECP, выпущенных под лицензией GNU GPL-3 с использованием свободного языка программирования R.

    Moskalev P.V.
    Percolation modeling of hydraulic hysteresis in a porous media
    Computer Research and Modeling, 2014, v. 6, no. 4, pp. 543-558

    In this paper we consider various models of hydraulic hysteresis in invasive mercury porosimetry. For simulating the hydraulic hysteresis is used isotropic site percolation on three-dimensional square lattices with $(1,\,\pi)$-neighborhood. The relationship between the percolation model parameters and invasive porosimetry data is studied phenomenologically. The implementation of the percolation model is based on libraries SPSL and SECP, released under license GNU GPL-3 using the free programming language R.

    Просмотров за год: 3. Цитирований: 1 (РИНЦ).
  7. Прокопцев Н.Г., Алексеенко А.Е., Холодов Я.А.
    Использование сверточных нейронных сетей для прогнозирования скоростей транспортного потока на дорожном графе
    Компьютерные исследования и моделирование, 2018, т. 10, № 3, с. 359-367

    Краткосрочное прогнозирование потока трафика является однойиз основных задач моделирования транспортных систем, основное назначение которой — контроль дорожного движения, сообщение об авариях, избежание дорожных пробок за счет знания потока трафика и последующего планирования транспортировки. Существует два типа подходов для решения этой задачи: математическое моделирование трафика и модель с использованием количественных данных трафика. Тем не менее большинство пространственно-временных моделейст радают от высокой математической сложности и низкой эффективности. Искусственные нейронные сети, один из видных подходов второго типа, показывают обещающие результаты в моделировании динамики транспортнойс ети. В данной работе представлена архитектура нейронной сети, используемойдля прогнозирования скоростейт ранспортного потока на графе дорожной сети. Модель основана на объединении рекуррентнойней ронной сети и сверточнойней ронной сети на графе, где рекуррентная нейронная сеть используется для моделирования временных зависимостей, а сверточная нейронная сеть — для извлечения пространственных свойств из трафика. Для получения предсказанийна несколько шагов вперед используется архитектура encoder-decoder, позволяющая уменьшить накопление шума из-за неточных предсказаний. Для моделирования сложных зависимостей мы используем модель, состоящую из нескольких слоев. Нейронные сети с глубокойархитек туройсло жны для тренировки; для ускорения процесса тренировки мы используем skip-соединения между каждым слоем, так что каждыйслой учит только остаточную функцию по отношению к предыдущему слою. Полученная объединенная нейронная сеть тренировалась на необработанных данных с сенсоров транспортного потока из сети шоссе в США с разрешением в 5 минут. 3 метрики — средняя абсолютная ошибка, средняя относительная ошибка, среднеквадратическая ошибка — использовались для оценки качества предсказания. Было установлено, что по всем метрикам предложенная модель имеет более низкую погрешность предсказания по сравнению с ранее опубликованными моделями, такими как Vector Auto Regression, Long Short-Term Memory и Graph Convolution GRU.

    Prokoptsev N.G., Alekseenko A.E., Kholodov Y.A.
    Traffic flow speed prediction on transportation graph with convolutional neural networks
    Computer Research and Modeling, 2018, v. 10, no. 3, pp. 359-367

    The short-term prediction of road traffic condition is one of the main tasks of transportation modelling. The main purpose of which are traffic control, reporting of accidents, avoiding traffic jams due to knowledge of traffic flow and subsequent transportation planning. A number of solutions exist — both model-driven and data driven had proven to be successful in capturing the dynamics of traffic flow. Nevertheless, most space-time models suffer from high mathematical complexity and low efficiency. Artificial Neural Networks, one of the prominent datadriven approaches, show promising performance in modelling the complexity of traffic flow. We present a neural network architecture for traffic flow prediction on a real-world road network graph. The model is based on the combination of a recurrent neural network and graph convolutional neural network. Where a recurrent neural network is used to model temporal dependencies, and a convolutional neural network is responsible for extracting spatial features from traffic. To make multiple few steps ahead predictions, the encoder-decoder architecture is used, which allows to reduce noise propagation due to inexact predictions. To model the complexity of traffic flow, we employ multilayered architecture. Deeper neural networks are more difficult to train. To speed up the training process, we use skip-connections between each layer, so that each layer teaches only the residual function with respect to the previous layer outputs. The resulting neural network was trained on raw data from traffic flow detectors from the US highway system with a resolution of 5 minutes. 3 metrics: mean absolute error, mean relative error, mean-square error were used to estimate the quality of the prediction. It was found that for all metrics the proposed model achieved lower prediction error than previously published models, such as Vector Auto Regression, LSTM and Graph Convolution GRU.

    Просмотров за год: 36.
  8. Скворцова В.А., Абдуллин Р.Р., Степанова А.А.
    Оптимизация параметров и структуры параллельного сферического манипулятора
    Компьютерные исследования и моделирование, 2023, т. 15, № 6, с. 1523-1534

    Статья представляет собой исследование математической модели и особенностей кинематики параллельного сферического манипулятора. Этот тип манипулятора был предложен еще в 80-х годах прошлого века и с тех пор нашел применение в экзоскелетах и реабилитационных роботах благодаря своей структуре, которая позволяет имитировать естественные движения суставов человеческого тела.

    Параллельный сферический манипулятор имеет три параллельных двухзвенных рычажных механизма, которые соединяют две платформы — базовую и мобильную. Звенья механизма имеют дугообразную форму. Геометрически манипулятор можно описать с помощью двух виртуальных пирамид, которые расположены друг над другом.

    В данной работе рассматриваются два основных типа конфигураций манипулятора (классическая и асимметричная) и решаются основные кинематические задачи для каждой из них. Исследование показывает, что асимметричное исполнение манипулятора имеет максимальное рабочее пространство, особенно когда моторы установлены в месте соединения опорных звеньев манипулятора.

    Для оптимизации параметров параллельного сферического манипулятора вводится метрика полезного объема рабочего пространства. Данная метрика представляет собой объем сектора сферы, в котором робот не испытывает внутренних коллизий или сингулярных состояний. Внутри параллельного сферического манипулятора возможны три типа сингулярных состояний: последовательная, параллельная и смешанная сингулярность. Для расчета полезного объема были учтены все три типа сингулярностей. В ходе исследования решалась задача максимизации полезного объема рабочего пространства.

    В результате исследования было обнаружено, что асимметричная конфигурация сферического манипулятора обеспечивает максимальное рабочее пространство, когда моторы расположены в месте соединения опорных звеньев механизмов робота. При этом для достижения максимального рабочего пространства параметр $\beta_1$ должен быть равен нулю градусов. Это позволило создать прототип робота, в котором вместо нижних опорных звеньев использована радиусная рельса, вдоль которой движутся моторы. Это позволило уменьшить линейные размеры самого робота и повысить жесткость конструкции.

    Полученные результаты могут быть использованы для оптимизации параметров параллельного сферического манипулятора с целью применения его в различных промышленных и научных задачах, а также для дальнейшего исследования других типов параллельных роботов и манипуляторов.

    Skvortsova V.A., Abdullin R.R., Stepanova A.A.
    Optimisation of parameters and structure of a parallel spherical manipulator
    Computer Research and Modeling, 2023, v. 15, no. 6, pp. 1523-1534

    The paper is a study of the mathematical model and kinematics of a parallel spherical manipulator. This type of manipulator was proposed back in the 80s of the last century and has since found application in exoskeletons and rehabilitation robots due to its structure, which allows imitating natural joint movements of the human body.

    The Parallel Spherical Manipulator is a robot with three legs and two platforms, a base platform and a mobile platform. Its legs consist of two support links that are arc-shaped. Mathematically, the manipulator can be described using two virtual pyramids that are placed on top of each other.

    The paper considers two types of manipulator configurations: classical and asymmetric, and solves basic kinematic problems for each. The study shows that the asymmetric design of the manipulator has the maximum workspace, especially when the motors are mounted at the joints of the manipulator’s links inside legs.

    To optimize the parameters of the parallel spherical manipulator, we introduced a metric of usable workspace volume. This metric represents the volume of the sector of the sphere in which the robot does not experience internal collisions or singular states. There are three types of singular states possible within a parallel spherical manipulator — serial, parallel, and mixed singularity. We used all three types of singularities to calculate the useful volume. In our research work, we solved the problem related to maximizing the usable volume of the workspace.

    Through our research work, we found that the asymmetric configuration of the spherical manipulator maximizes the workspace when the motors are located at the articulation point of the robot leg support arms. At the same time, the parameter $\beta_1$ must be zero degrees to maximize the workspace. This allowed us to create a prototype robot in which we eliminated the use of lower links in legs in favor of a radiused rail along which the motors run. This allowed us to reduce the linear dimensions of the robot itself and gain on the stiffness of the structure.

    The results obtained can be used to optimize the parameters of the parallel spherical manipulator in various industrial and scientific applications, as well as for further research of other types of parallel robots and manipulators.

  9. Москалев П.В.
    Структура моделей перколяции узлов на трехмерных квадратных решетках
    Компьютерные исследования и моделирование, 2013, т. 5, № 4, с. 607-622

    В работе рассматривается структура моделей перколяции узлов на трехмерных квадратных решеткахпри различныхфор мах (1,π)-окрестности. Для этихмо делей предложены изо- и анизотропные модификации алгоритма инвазивной перколяции с (1,0)- и (1,π)-окрестностями. Все рассмотренные алгоритмы являются частными случаями анизотропного алгоритма инвазивной перколяции на n-мерной решетке с (1,π)-окрестностью. Данный алгоритм положен в основу библиотеки SPSL, выпущенной под лицензией GNU GPL-3 с использованием свободного языка программирования R.

    Moskalev P.V.
    The structure of site percolation models on three-dimensional square lattices
    Computer Research and Modeling, 2013, v. 5, no. 4, pp. 607-622

    In this paper we consider the structure of site percolation models on three-dimensional square lattices with various shapes of (1,π)-neighborhood. For these models, are proposed iso- and anisotropic modifications of the invasion percolation algorithm with (1,0)- and (1,π)-neighborhoods. All the above algorithms are special cases of the anisotropic invasion percolation algorithm on the n-dimensional lattice with a (1,π)-neighborhood. This algorithm is the basis for the package SPSL, released under GNU GPL-3 using the free programming language R.

    Просмотров за год: 8. Цитирований: 5 (РИНЦ).
  10. Гребенкин И.В., Алексеенко А.Е., Гайворонский Н.А., Игнатов М.Г., Казённов А.М., Козаков Д.В., Кулагин А.П., Холодов Я.А.
    Применение ансамбля нейросетей и методов статистической механики для предсказания связывания пептида с главным комплексом гистосовместимости
    Компьютерные исследования и моделирование, 2020, т. 12, № 6, с. 1383-1395

    Белки главного комплекса гистосовместимости (ГКГС) играют ключевую роль в работе адаптивной иммунной системы, и определение связывающихся с ними пептидов — важный шаг в разработке вакцин и понимании механизмов аутоиммунных заболеваний. На сегодняшний день существует ряд методов для предсказания связывания определенной аллели ГКГС с пептидом. Одним из лучших таких методов является NetMHCpan-4.0, основанный на ансамбле искусственных нейронных сетей. В данной работе представлена методология качественного улучшения архитектуры нейронной сети, лежащей в основе NetMHCpan-4.0. Предлагаемый метод использует технику построения ансамбля и добавляет в качестве входных данных оценку модели Поттса, взятой из статистической механики и являющейся обобщением модели Изинга. В общем случае модельо тражает взаимодействие спинов в кристаллической решетке. Применительно к задаче белок-пептидного взаимодействия вместо спинов используются типы аминокислот, находящихся в кармане связывания. В предлагаемом методе модель Поттса используется для более всестороннего представления физической природы взаимодействия полипептидных цепей, входящих в состав комплекса. Для оценки взаимодействия комплекса «ГКГС + пептид» нами используется двумерная модель Поттса с 20 состояниями (соответствующими основным аминокислотам). Решая обратную задачу с использованием данных об экспериментально подтвержденных взаимодействующих парах, мы получаем значения параметров модели Поттса, которые затем применяем для оценки новой пары «ГКГС + пептид», и дополняем этим значением входные данные нейронной сети. Такой подход, в сочетании с техникой построения ансамбля, позволяет улучшитьт очность предсказания, по метрике положительной прогностической значимости (PPV), по сравнению с базовой моделью.

    Grebenkin I.V., Alekseenko A.E., Gaivoronskiy N.A., Ignatov M.G., Kazennov A.M., Kozakov D.V., Kulagin A.P., Kholodov Y.A.
    Ensemble building and statistical mechanics methods for MHC-peptide binding prediction
    Computer Research and Modeling, 2020, v. 12, no. 6, pp. 1383-1395

    The proteins of the Major Histocompatibility Complex (MHC) play a key role in the functioning of the adaptive immune system, and the identification of peptides that bind to them is an important step in the development of vaccines and understanding the mechanisms of autoimmune diseases. Today, there are a number of methods for predicting the binding of a particular MHC allele to a peptide. One of the best such methods is NetMHCpan-4.0, which is based on an ensemble of artificial neural networks. This paper presents a methodology for qualitatively improving the underlying neural network underlying NetMHCpan-4.0. The proposed method uses the ensemble construction technique and adds as input an estimate of the Potts model taken from static mechanics, which is a generalization of the Ising model. In the general case, the model reflects the interaction of spins in the crystal lattice. Within the framework of the proposed method, the model is used to better represent the physical nature of the interaction of proteins included in the complex. To assess the interaction of the MHC + peptide complex, we use a two-dimensional Potts model with 20 states (corresponding to basic amino acids). Solving the inverse problem using data on experimentally confirmed interacting pairs, we obtain the values of the parameters of the Potts model, which we then use to evaluate a new pair of MHC + peptide, and supplement this value with the input data of the neural network. This approach, combined with the ensemble construction technique, allows for improved prediction accuracy, in terms of the positive predictive value (PPV) metric, compared to the baseline model.

Страницы: предыдущая следующая последняя »

Журнал индексируется в Scopus

Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU

Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science

Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"

Международная Междисциплинарная Конференция МАТЕМАТИКА. КОМПЬЮТЕР. ОБРАЗОВАНИЕ.