Все выпуски
- 2024 Том 16
- 2023 Том 15
- 2022 Том 14
- 2021 Том 13
- 2020 Том 12
- 2019 Том 11
- 2018 Том 10
- 2017 Том 9
- 2016 Том 8
- 2015 Том 7
- 2014 Том 6
- 2013 Том 5
- 2012 Том 4
- 2011 Том 3
- 2010 Том 2
- 2009 Том 1
Об одном методе минимизации выпуклой липшицевой функции двух переменных на квадрате
Список литературы:
- Anaconda python дистрибутив, официальный веб-сайт. — Электронный ресурс. — https://www.anaconda.com. — дата обращения: 20.02.2019.
- Anaconda python distribution official website. — Electronic resource. — https://www.anaconda.com. — accessed 20.02.2019.
- Безградиентные двухточечные методы решения задач стохастической негладкой выпуклой оптимизации при наличии малых шумов неслучайной природы // Автоматика и телемеханика. — 2018. — № 8. — С. 38–49.
- Gradient-free two-point methods for solving stochastic nonsmooth convex optimization problems with small non-random noises // Automation and Remote Control. — 2018. — V. 79, no. 8. — P. 1399–1408. — DOI: 10.1134/S0005117918080039. — MathSciNet: MR3860298. , , .
- Bezgradientnye dvukhtochechnye metody resheniya zadach stokhasticheskoi negladkoi vypukloi optimizatsii pri nalichii malykh shumov ne sluchainoi prirody // Automation and Remote Control. — 2018. — no. 8. — P. 38–49. — in Russian. — Math-Net: Mi eng/at14643. , , .
, , . - Методы оптимизации. — М: МЦНМО, 2011. — Т. 2. — 433 с.
- Methods of Optimization. — Moscow: MCCME, 2011. — V. 2. — 433 p. — in Russian. .
. - Ускоренные спуски по случайному направлению с неевклидовой прокс-структурой // Автоматика и телемеханика. — 2019. — № 4. — С. 126–143.
- Accelerated Directional Search with non-Euclidean prox-structure // Automation and Remote Control. — 2019. — no. 4. — P. 126–143. — in Russian. — Math-Net: Mi eng/at15270. , , .
, , . - Современные численные методы оптимизации. Метод универсального градиентного спуска. — М: МФТИ, 2018. — 240 с.
- Modern numerical optimization methods. universal gradient descent method. — Moscow: MIPT, 2018. — 240 p. — in Russian. .
. - Сложность задач и эффективность методов оптимизации. — М: Наука, 1979.
- Problem Complexity and Method Efficiency in Optimization. — New York: Wiley-Interscience, 1983. — MathSciNet: MR0702836. , .
- Slozhnost’ zadach i effektivnost’ metodov optimizatsii. — Moscow: Nauka, 1979. — Russ. ed. — in Russian. , .
, . - Введение в оптимизацию. — М: Наука, 1983. .
- Методы минимизации недифференцируемых функций и их приложения. — Киев: Наукова Думка, 1979.
- Minimization Methods for Non-Differentiable Functions. — Series in Computational Mathematics. — Springer, 1985. — MathSciNet: MR0775136. .
- Metody minimizatsii nedifferentsiruemykh funktsii i ikh prilozheniya. — Kiev: Naukova Dumka, 1979. — Russ. ed. — in Russian. .
. - Mirror descent and convex optimization problems with non-smooth inequality constraints / Large-Scale and Distributed Optimization. — Springer International Publishing, 2018. — P. 181–215. — P. Giselsson, A. Rantzer (eds.). — Chap. 8. — MathSciNet: MR3888675. , , , , .
- Learning supervised pagerank with gradient-based and gradient-free optimization methods / Advances in Neural Information Processing Systems. — Curran Associates, Inc, 2016. — V. 29. — P. 4914–4922. — D. D. Lee, M. Sugiyama, U. V. Luxburg, I. Guyon, R. Garnett (eds.). , , , , , , , .
- Convex optimization: algorithms and complexity // Foundations and Trends in Machine Learning. — 2015. — V. 8, no. 3–4. — P. 231–357. — DOI: 10.1561/2200000050. .
- Optimal primal-dual methods for a class of saddle point problems // SIAM Journal on Optimization. — 2014. — V. 24, no. 4. — P. 1779–1814. — DOI: 10.1137/130919362. — MathSciNet: MR3272627. , , .
- Stochastic Block Mirror Descent Methods for Nonsmooth and Stochastic Optimization // SIAM J. on Optimization. — 2015. — V. 25, no. 2. — P. 856–881. — DOI: 10.1137/130936361. — MathSciNet: MR3341135. , .
- First-order methods of smooth convex optimization with inexact oracle // Mathematical Programming. — 2014. — V. 146, no. 1–2. — P. 37–75. — DOI: 10.1007/s10107-013-0677-5. — MathSciNet: MR3232608. , , .
- Stochastic Intermediate Gradient Method for Convex Problems with Stochastic Inexact Oracle // Journal of Optimization Theory and Applications. — 2016. — V. 171, no. 1. — P. 121–145. — DOI: 10.1007/s10957-016-0999-6. — MathSciNet: MR3547846. , .
- Gradient-free proximal methods with inexact oracle for convex stochastic nonsmooth optimization problems on the simplex // Automation and Remote Control. — 2016. — V. 77, no. 11. — P. 2018–2034. — DOI: 10.1134/S0005117916110114. — MathSciNet: MR3664202. , , , .
- A faster cutting plane method and its implications for combinatorial and convex optimization. — 2015. — E-print. — https://arxiv.org/pdf/1508.04874.pdf. — accessed 02.01.2019. — MathSciNet: MR3473356. , , .
- Lectures on modern convex optimization analysis, algorithms, and engineering applications. — Philadelphia: SIAM, 2015. — http://www2.isye.gatech.edu/~nemirovs/Lect_ModConvOpt.pdf. — accessed 02.01.2019. .
- Primal-dual subgradient methods for convex problems // Mathematical Programming. — 2009. — V. 120, no. 1. — P. 221–259. — DOI: 10.1007/s10107-007-0149-x. — MathSciNet: MR2496434. .
- Primal-Dual Subgradient Method for Huge-Scale Linear Conic Problems // SIAM Journal on Optimization. — 2014. — V. 24, no. 3. — P. 1444–1457. — DOI: 10.1137/130929345. — MathSciNet: MR3257645. , .
- Lectures on convex optimization. — Springer, 2018. — MathSciNet: MR3839649. .
- Inexact Coordinate Descent: Complexity and Preconditioning // Journal of Optimization Theory and Applications. — 2016. — V. 170, no. 1. — P. 144–176. — DOI: 10.1007/s10957-016-0867-4. — MathSciNet: MR3513271. , , , .
Журнал индексируется в Scopus
Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU
Журнал входит в систему Российского индекса научного цитирования.
Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science
Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"
Copyright © 2009–2024 Институт компьютерных исследований