Все выпуски
- 2025 Том 17
- 2024 Том 16
- 2023 Том 15
- 2022 Том 14
- 2021 Том 13
- 2020 Том 12
- 2019 Том 11
- 2018 Том 10
- 2017 Том 9
- 2016 Том 8
- 2015 Том 7
- 2014 Том 6
- 2013 Том 5
- 2012 Том 4
- 2011 Том 3
- 2010 Том 2
- 2009 Том 1
Об одном методе минимизации выпуклой липшицевой функции двух переменных на квадрате
Список литературы:
- Anaconda python дистрибутив, официальный веб-сайт. — Электронный ресурс. — https://www.anaconda.com. — дата обращения: 20.02.2019.
- Anaconda python distribution official website. — Electronic resource. — https://www.anaconda.com. — accessed 20.02.2019.
- , , . Безградиентные двухточечные методы решения задач стохастической негладкой выпуклой оптимизации при наличии малых шумов неслучайной природы // Автоматика и телемеханика. — 2018. — № 8. — С. 38–49.
- , , . Gradient-free two-point methods for solving stochastic nonsmooth convex optimization problems with small non-random noises // Automation and Remote Control. — 2018. — V. 79, no. 8. — P. 1399–1408. — DOI: 10.1134/S0005117918080039. — MathSciNet: MR3860298.
- , , . Bezgradientnye dvukhtochechnye metody resheniya zadach stokhasticheskoi negladkoi vypukloi optimizatsii pri nalichii malykh shumov ne sluchainoi prirody // Automation and Remote Control. — 2018. — no. 8. — P. 38–49. — in Russian. — Math-Net: Mi eng/at14643.
- . Методы оптимизации. — М: МЦНМО, 2011. — Т. 2. — 433 с.
- . Methods of Optimization. — Moscow: MCCME, 2011. — V. 2. — 433 p. — in Russian.
- , , . Ускоренные спуски по случайному направлению с неевклидовой прокс-структурой // Автоматика и телемеханика. — 2019. — № 4. — С. 126–143.
- , , . Accelerated Directional Search with non-Euclidean prox-structure // Automation and Remote Control. — 2019. — no. 4. — P. 126–143. — in Russian. — Math-Net: Mi eng/at15270.
- . Современные численные методы оптимизации. Метод универсального градиентного спуска. — М: МФТИ, 2018. — 240 с.
- . Modern numerical optimization methods. universal gradient descent method. — Moscow: MIPT, 2018. — 240 p. — in Russian.
- , . Сложность задач и эффективность методов оптимизации. — М: Наука, 1979.
- , . Problem Complexity and Method Efficiency in Optimization. — New York: Wiley-Interscience, 1983. — MathSciNet: MR0702836.
- , . Slozhnost’ zadach i effektivnost’ metodov optimizatsii. — Moscow: Nauka, 1979. — Russ. ed. — in Russian.
- . Введение в оптимизацию. — М: Наука, 1983.
- . Методы минимизации недифференцируемых функций и их приложения. — Киев: Наукова Думка, 1979.
- . Minimization Methods for Non-Differentiable Functions. — Series in Computational Mathematics. — Springer, 1985. — MathSciNet: MR0775136.
- . Metody minimizatsii nedifferentsiruemykh funktsii i ikh prilozheniya. — Kiev: Naukova Dumka, 1979. — Russ. ed. — in Russian.
- , , , , . Mirror descent and convex optimization problems with non-smooth inequality constraints / Large-Scale and Distributed Optimization. — Springer International Publishing, 2018. — P. 181–215. — P. Giselsson, A. Rantzer (eds.). — Chap. 8. — MathSciNet: MR3888675.
- , , , , , , , . Learning supervised pagerank with gradient-based and gradient-free optimization methods / Advances in Neural Information Processing Systems. — Curran Associates, Inc, 2016. — V. 29. — P. 4914–4922. — D. D. Lee, M. Sugiyama, U. V. Luxburg, I. Guyon, R. Garnett (eds.).
- . Convex optimization: algorithms and complexity // Foundations and Trends in Machine Learning. — 2015. — V. 8, no. 3–4. — P. 231–357. — DOI: 10.1561/2200000050.
- , , . Optimal primal-dual methods for a class of saddle point problems // SIAM Journal on Optimization. — 2014. — V. 24, no. 4. — P. 1779–1814. — DOI: 10.1137/130919362. — MathSciNet: MR3272627.
- , . Stochastic Block Mirror Descent Methods for Nonsmooth and Stochastic Optimization // SIAM J. on Optimization. — 2015. — V. 25, no. 2. — P. 856–881. — DOI: 10.1137/130936361. — MathSciNet: MR3341135.
- , , . First-order methods of smooth convex optimization with inexact oracle // Mathematical Programming. — 2014. — V. 146, no. 1–2. — P. 37–75. — DOI: 10.1007/s10107-013-0677-5. — MathSciNet: MR3232608.
- , . Stochastic Intermediate Gradient Method for Convex Problems with Stochastic Inexact Oracle // Journal of Optimization Theory and Applications. — 2016. — V. 171, no. 1. — P. 121–145. — DOI: 10.1007/s10957-016-0999-6. — MathSciNet: MR3547846.
- , , , . Gradient-free proximal methods with inexact oracle for convex stochastic nonsmooth optimization problems on the simplex // Automation and Remote Control. — 2016. — V. 77, no. 11. — P. 2018–2034. — DOI: 10.1134/S0005117916110114. — MathSciNet: MR3664202.
- , , . A faster cutting plane method and its implications for combinatorial and convex optimization. — 2015. — E-print. — https://arxiv.org/pdf/1508.04874.pdf. — accessed 02.01.2019. — MathSciNet: MR3473356.
- . Lectures on modern convex optimization analysis, algorithms, and engineering applications. — Philadelphia: SIAM, 2015. — http://www2.isye.gatech.edu/~nemirovs/Lect_ModConvOpt.pdf. — accessed 02.01.2019.
- . Primal-dual subgradient methods for convex problems // Mathematical Programming. — 2009. — V. 120, no. 1. — P. 221–259. — DOI: 10.1007/s10107-007-0149-x. — MathSciNet: MR2496434.
- , . Primal-Dual Subgradient Method for Huge-Scale Linear Conic Problems // SIAM Journal on Optimization. — 2014. — V. 24, no. 3. — P. 1444–1457. — DOI: 10.1137/130929345. — MathSciNet: MR3257645.
- . Lectures on convex optimization. — Springer, 2018. — MathSciNet: MR3839649.
- , , , . Inexact Coordinate Descent: Complexity and Preconditioning // Journal of Optimization Theory and Applications. — 2016. — V. 170, no. 1. — P. 144–176. — DOI: 10.1007/s10957-016-0867-4. — MathSciNet: MR3513271.
Журнал индексируется в Scopus
Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU
Журнал входит в систему Российского индекса научного цитирования.
Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science
Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"





