Main Article Content
W artykule podjęto próbę oceny przydatności biblioteki ML.NET do badań w dziedzinie ekonomii. Przedstawiono możliwości wykorzystania uczenia maszynowego w aplikacjach i krótko omówiono dostępne bezpłatnie biblioteki programistyczne związane z uczeniem maszynowym. Omówiono funkcjonalność biblioteki ML.NET ze szczególnym uwzględnieniem przydatności do badań i zastosowań w dziedzinie ekonomii. W celu weryfikacji możliwości ML.NET do generacji modelu jak i wykorzystania go do prognozy, utworzono prostą aplikację w języku C# prognozującą poziom inflacji na podstawie zgromadzonych danych.
Article Details
Ahmed Z. et al. (2019) Machine Learning at Microsoft with ML.NET. Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, n. pag.
Capellman J. (2020) Hands-On Machine Learning with ML.NET: Getting Started with Microsoft ML.NET to Implement Popular Machine Learning Algorithms in C#. Packt Publishing, ISBN 978-1789801781.
Gevorkyan M. N., Demidova A. V., Demidova T. S., Sobolev A. A. (2019) Review and Comparative Analysis of Machine Learning Libraries for Machine Learning. Discrete and Continuous Models and Applied Computational Science, 27(4), 305-315, doi: 10.22363/2658-4670-2019-27-4-305-315.966-979. (Crossref)
Kędziora E. J. Maksim G. K. (2021) Analiza wydajności bibliotek uczenia maszynowego. Journal of Computer Sciences Institute, 20, 230-236. (Crossref)
Liu D. C., Nocedal J. (1989) On the Limited Memory BFGS Method for Large Scale Optimization. Mathematical Programming, 45, 503-528. (Crossref)
Nash S. G., Nocedal J. (1991) A Numerical Study of the Limited Memory BFGS Method and the Truncated-Newton Method for Large Scale Optimization. SIAM Journal of Optimization, 1, 358-372. (Crossref)
Shalev-Shwartz S., Zhang T. (2013) Stochastic Dual Coordinate Ascent Methods for Regularized Loss Minimization. Journal of Machine Learning Research, 14, 567-599.
Shalev-Shwartz S., Zhang T. (2016) Accelerated Proximal Stochastic Dual Coordinate Ascent for Regularized Loss Minimization. Mathematical Programming, 155, 105-145. (Crossref)
Tankaria H., Sugimoto S., Yamashita N. (2021) A Regularized Limited Memory BFGS Method for Large-Scale Unconstrained Optimization and its Efficient Implementations. arXiv: Optimization and Control, n. pag. (Crossref)
Tran K., Hosseini S., Xiao L., Finley T., Bilenko M. (2015) Scaling up Stochastic Dual Coordinate Ascent. Proceedings of the 21th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, n. pag. (Crossref)
Zhu C. Byrd R. H., Lu P., Nocedal J. (1997) Algorithm 778: L-BFGS-B: Fortran subroutines for large-scale bound-constrained optimization. ACM Transactions on Mathematical Software, 23(4), 550-560, doi:10.1145/279232.279236. (Crossref)
https://dotnet.microsoft.com/en-us/apps/machinelearning-ai/ml-dotnet [dostęp: 20.11.2021].
Downloads
Utwór dostępny jest na licencji Creative Commons Uznanie autorstwa – Użycie niekomercyjne 4.0 Międzynarodowe.
Publikowane artykuły dostępne są na warunkach Open Access na zasadach licencji Creative Commons CC BY-NC – do celów niekomercyjnych udostępnione materiały mogą być kopiowane, drukowane i rozpowszechniane. Autorzy ponoszą opłatę za opublikowanie artykułu.