ЫКТЫМАЛДУУЛУК ЖАНА СТАТИСТИКАЛЫК ЫКМАЛАРДЫ КОЛДОНУУ МЕНЕН ТУРУКТУУ МАШИНАЛЫК ОКУУ МОДЕЛДЕРИН КУРУУНУН МЕТОДОЛОГИЯЛЫК НЕГИЗДЕРИ
##semicolon##
машиналык окутуу##common.commaListSeparator## окутуунун статистикалык теориясы##common.commaListSeparator## байес корутундусу##common.commaListSeparator## стохастикалык градиенттик түшүү##common.commaListSeparator## регуляризация##common.commaListSeparator## көңүл буруу механизмиАннотация
Бул иш машиналык окутуунун математикалык негиздерин ыктымалдуулуктар теориясы, математикалык статистика жана көп өлчөмдүү геометрия аркылуу талдоого арналган. Колдонмо изилдөөлөрдө үстөмдүк кылган эмпирикалык ыкмага карама-каршы, бул жерде окутуунун негизги алгоритмдери — классикалык регрессиядан баштап заманбап трансформердик архитектураларга чейин — максималдуу окшоштук ыкмасы, Байес корутундусу жана ченемдин концентрациясы сыяктуу фундаменталдык статистикалык принциптердин натыйжалары экени көрсөтүлөт. Иш максаттуу функцияларды жана градиенттерди чыгарууну, регуляризация жана өлчөмдүүлүктү азайтуу ыкмаларынын геометриялык түшүндүрмөсүн, ошондой эле стохастикалык оптималдаштыруу ыкмаларын талдоону камтыйт. Жогорку өлчөмдүүлүк шартында моделдердин туруктуулугу жана көп түрдүүлүк гипотезасынын теориялык негиздемеси өзгөчө каралат.
##submission.citations##
K. P. Murphy, Probabilistic Machine Learning: An Introduction. MIT Press, 2022.
G. James, D. Witten, T. Hastie, и R. Tibshirani, An Introduction to Statistical Learning. Springer, 2013.
C. M. Bishop, Pattern Recognition and Machine Learning. Springer, 2006.
S. Geman, E. Bienenstock, и R. Doursat, «Neural networks and the bias/variance dilemma», Neural Computation, т. 4, вып. 1, сс. 1–58, 1992.
M. Belkin, D. Hsu, S. Ma, и S. Mandal, «Reconciling modern machine-learning practice and the classical bias–variance trade-off», Proceedings of the National Academy of Sciences, т. 116, вып. 32, сс. 15849–15854, 2019.
C. Zhang, S. Bengio, M. Hardt, B. Recht, и O. Vinyals, «Understanding deep learning requires rethinking generalization», в International Conference on Learning Representations (ICLR), 2017.
J. R. Magnus, P. K. Katyshev, и A. A. Peresetsky, Econometrics. An Introductory Course. Moscow: Delo, 2007.
J. A. Nelder и R. W. Wedderburn, «Generalized Linear Models», Journal of the Royal Statistical Society: Series A (General), т. 135, вып. 3, сс. 370–384, 1972.
Goodfellow, Y. Bengio, и A. Courville, Deep Learning. MIT Press, 2016.
M. H. DeGroot, Optimal Statistical Decisions. McGraw-Hill, 1970.
L. Bottou, «Stochastic learning», Advanced lectures on machine learning. Springer, сс. 146–168, 2004 г.
B. Neyshabur, R. Tomioka, и N. Srebro, «In Search of the Real Inductive Bias: On the Role of Implicit Regularization in Deep Learning», в ICLR (Workshop), 2015.
C. Fefferman, S. Mitter, и H. Narayanan, «Testing the manifold hypothesis», Journal of the American Mathematical Society, т. 29, вып. 4, сс. 983–1020, 2016.
H. Whitney, «Differentiable manifolds», Annals of Mathematics, сс. 645–680, 1936.
Vaswani и др., «Attention is all you need», Advances in Neural Information Processing Systems, т. 30, 2017.
Корякин, С. В. Аналитический обзор технологий построения аппаратно-ориентированных облачных систем защиты информации с применением нейросетевых технологий / С. В. Корякин // Проблемы автоматики и управления. – 2025. – № 2(53). – С. 41–51. – EDN RCCRHC.
##submission.downloads##
Жарыяланды
Чыгарылыш
бөлүм
##submission.license##
##submission.copyrightStatement##
##submission.license.cc.by4.footer##