Порівняльний аналіз програмно-апаратного забезпечення алгоритмів глибокого навчання
dc.citation.epage | 102 | |
dc.citation.issue | 1 | |
dc.citation.journalTitle | Комп’ютерні системи та мережі | |
dc.citation.spage | 97 | |
dc.citation.volume | 1 | |
dc.contributor.affiliation | Національний університет “Львівська політехніка” | |
dc.contributor.affiliation | Lviv Polytechnic National University | |
dc.contributor.author | Хома, Ю. В. | |
dc.contributor.author | Бенч, А. Я. | |
dc.contributor.author | Khoma, Y. | |
dc.contributor.author | Bench, A. | |
dc.coverage.placename | Львів | |
dc.coverage.placename | Lviv | |
dc.date.accessioned | 2021-04-20T11:41:54Z | |
dc.date.available | 2021-04-20T11:41:54Z | |
dc.date.created | 2019-03-01 | |
dc.date.issued | 2019-03-01 | |
dc.description.abstract | Автоматичний переклад, розпізнавання мови та її синтез, розпізнавання об’єктів та навіть людських емоцій – надзвичайно складні завдання, із якими легко справляються сучасні смартфони. Їх ефективна реалізація стала можливою завдяки широкому застосуванню алгоритмів штучного інтелекту та машинного навчання, серед яких надзвичайно популярними є штучні нейронні мережі та алгоритми глибокого навчання. Ці алгоритми проникли в усі галузі індустрії, а їх стрімкий розвиток неможливий без застосування апаратної акселерації та чіткої взаємодії між апаратними складовими та програмним забезпеченням. Особливо актуальним це завдання стає, коли програмне забезпечення, призначене для застосування в хмарах, адаптується для невеликих за розміром та обчислювальними потужностями вбудованих систем. Статтю присвячено трьом пунктам, що, відповідно, пов’язані з програмним забезпеченням глибокого навчання, спеціалізованою апаратурою на основі GPU та перспективами побудови акселераторів для алгоритмів глибокого навчання на основі програмованих логічних матриць. У роботі проведено порівняльний аналіз найпопулярніших програмних фреймворків, таких як Caffe, Theano, Torch, MXNet, Tensorflow, Neon, CNTK. Описано переваги GPU-рішень на основі CUDA і cuDNN. Розглянуто перспективи FPGA як високошвидкісних та енергоефективних рішень для розроблення алгоритмів глибокого навчання, особливо у поєднанні з мовою OpenCL. | |
dc.description.abstract | The automated translation, speech recognition and synthesis, object detection as well as emotion recognition are well known complex tasks that modern smartphone can solve. It became possible with intensive usage of algorithms of Artificial Intelligence and Machine Learning. Most popular now are implementations of deep neural networks and deep learning algorithms. Such algorithms are widely used in all verticals and need hardware accelerators as well as deep cooperation between both software and hardware parts. The mentioned task became very actual during embedding of cloud-based algorithms into systems with limited computing capabilities, small physical size, and extremely low power consumption. The aim of this paper is to compare existing software and hardware solutions dedicated to the development of artificial neural networks and deep learning applications. The paper is focused on three topics related to deep learning software frameworks, specialized GPU-based hardware, and prospects of deep learning acceleration using FPGA. The most popular software frameworks, such as Caffe, Theano, Torch, MXNet, Tensorflow, Neon, CNTK have been compared and analyzed in the paper. Advantages of GPU solutions based on CUDA and cuDNN frameworks have been described. Prospects of FPGA as high-speed and power-efficient solutions for deep learning algorithm design, especially in terms of combination with OpenCL language have been discussed in the paper. | |
dc.format.extent | 97-102 | |
dc.format.pages | 6 | |
dc.identifier.citation | Хома Ю. В. Порівняльний аналіз програмно-апаратного забезпечення алгоритмів глибокого навчання / Ю. В. Хома, А. Я. Бенч // Комп’ютерні системи та мережі. — Львів : Видавництво Львівської політехніки, 2019. — Том 1. — № 1. — С. 97–102. | |
dc.identifier.citationen | Khoma Y. Comparative analysis of the specialized software and hardware for deep learning algorithms / Y. Khoma, A. Bench // Kompiuterni systemy ta merezhi. — Lviv : Lviv Politechnic Publishing House, 2019. — Vol 1. — No 1. — P. 97–102. | |
dc.identifier.issn | 2707-2371 | |
dc.identifier.uri | https://ena.lpnu.ua/handle/ntb/56350 | |
dc.language.iso | uk | |
dc.publisher | Видавництво Львівської політехніки | |
dc.publisher | Lviv Politechnic Publishing House | |
dc.relation.ispartof | Комп’ютерні системи та мережі, 1 (1), 2019 | |
dc.relation.references | 1. Christopher M. Bishop. Pattern Recognition and Machine Learning (Information Science and Statistics), Springer-Verlag Berlin, Heidelberg, 2006. | |
dc.relation.references | 2. Ian Goodfellow, Yoshua Bengio, Aaron Courville, Deep Learning, The MIT Press, 2016. | |
dc.relation.references | 3. L. Deng and D. Yu. Deep Learning: Methods and Applications. Foundations and Trends in Signal Processing, 2013, vol. 7, nos. 3–4, pp. 197–387. | |
dc.relation.references | 4. Mostapha Zbakh, Mohammed Essaaidi, Pierre Manneback, Chunming Rong, Cloud Computing and Big Data: Technologies, Applications and Security, Springer International Publishing, 2019. | |
dc.relation.references | 5. Gerassimos Barlas, Multicore and GPU Programming: An Integrated Approach, Morgan Kaufmann Publishers Inc., San Francisco, CA, 2014. | |
dc.relation.references | 6. Seonwoo Min, Byunghan Lee, Sungroh Yoon; Deep learning in bioinformatics, Briefings in Bioinformatics, Volume 18, Issue 5, 1 September 2017, pp. 851–869. | |
dc.relation.references | 7. NVIDIA GPU Computing. https://www.nvidia.com/object/doc_gpu_compute.html | |
dc.relation.references | 8. CUDA Toolkit Documentation. https://docs.nvidia.com/cuda/ | |
dc.relation.references | 9. cuDNN Developer Guide. https://docs.nvidia.com/deeplearning/ sdk/cudnn-developer-guide/index.html | |
dc.relation.references | 10. Amazon EC2 F1 Instances. https://aws.amazon.com/ec2/ instance-types/f1/ | |
dc.relation.references | 11. Cloud TPU documentation. https://cloud.google.com/tpu/docs/ | |
dc.relation.references | 12. Accelerating DNNs with Xilinx Alveo Accelerator Cards. https://www.xilinx.com/support/documentation/ white_papers/wp504-accel-dnns.pdf | |
dc.relation.references | 13. An OpenCLTM Deep Learning Accelerator on Arria 10. https://arxiv.org/pdf/1701.03534.pdf. | |
dc.relation.referencesen | 1. Christopher M. Bishop. Pattern Recognition and Machine Learning (Information Science and Statistics), Springer-Verlag Berlin, Heidelberg, 2006. | |
dc.relation.referencesen | 2. Ian Goodfellow, Yoshua Bengio, Aaron Courville, Deep Learning, The MIT Press, 2016. | |
dc.relation.referencesen | 3. L. Deng and D. Yu. Deep Learning: Methods and Applications. Foundations and Trends in Signal Processing, 2013, vol. 7, nos. 3–4, pp. 197–387. | |
dc.relation.referencesen | 4. Mostapha Zbakh, Mohammed Essaaidi, Pierre Manneback, Chunming Rong, Cloud Computing and Big Data: Technologies, Applications and Security, Springer International Publishing, 2019. | |
dc.relation.referencesen | 5. Gerassimos Barlas, Multicore and GPU Programming: An Integrated Approach, Morgan Kaufmann Publishers Inc., San Francisco, CA, 2014. | |
dc.relation.referencesen | 6. Seonwoo Min, Byunghan Lee, Sungroh Yoon; Deep learning in bioinformatics, Briefings in Bioinformatics, Volume 18, Issue 5, 1 September 2017, pp. 851–869. | |
dc.relation.referencesen | 7. NVIDIA GPU Computing. https://www.nvidia.com/object/doc_gpu_compute.html | |
dc.relation.referencesen | 8. CUDA Toolkit Documentation. https://docs.nvidia.com/cuda/ | |
dc.relation.referencesen | 9. cuDNN Developer Guide. https://docs.nvidia.com/deeplearning/ sdk/cudnn-developer-guide/index.html | |
dc.relation.referencesen | 10. Amazon EC2 F1 Instances. https://aws.amazon.com/ec2/ instance-types/f1/ | |
dc.relation.referencesen | 11. Cloud TPU documentation. https://cloud.google.com/tpu/docs/ | |
dc.relation.referencesen | 12. Accelerating DNNs with Xilinx Alveo Accelerator Cards. https://www.xilinx.com/support/documentation/ white_papers/wp504-accel-dnns.pdf | |
dc.relation.referencesen | 13. An OpenCLTM Deep Learning Accelerator on Arria 10. https://arxiv.org/pdf/1701.03534.pdf. | |
dc.relation.uri | https://www.nvidia.com/object/doc_gpu_compute.html | |
dc.relation.uri | https://docs.nvidia.com/cuda/ | |
dc.relation.uri | https://docs.nvidia.com/deeplearning/ | |
dc.relation.uri | https://aws.amazon.com/ec2/ | |
dc.relation.uri | https://cloud.google.com/tpu/docs/ | |
dc.relation.uri | https://www.xilinx.com/support/documentation/ | |
dc.relation.uri | https://arxiv.org/pdf/1701.03534.pdf | |
dc.rights.holder | © Національний університет “Львівська політехніка”, 2019 | |
dc.rights.holder | © Хома Ю. В., Бенч А. Я., 2019 | |
dc.subject | штучний інтелект | |
dc.subject | алгоритми глибокого навчання | |
dc.subject | штучні нейронні мережі | |
dc.subject | програмні рішення | |
dc.subject | artificial intelligence | |
dc.subject | deep learning algorithms | |
dc.subject | artificial neural networks | |
dc.subject | software solutions | |
dc.subject.udc | 004.8 | |
dc.title | Порівняльний аналіз програмно-апаратного забезпечення алгоритмів глибокого навчання | |
dc.title.alternative | Comparative analysis of the specialized software and hardware for deep learning algorithms | |
dc.type | Article |
Files
License bundle
1 - 1 of 1