Порівняльний аналіз програмно-апаратного забезпечення алгоритмів глибокого навчання

dc.citation.epage102
dc.citation.issue1
dc.citation.journalTitleКомп’ютерні системи та мережі
dc.citation.spage97
dc.citation.volume1
dc.contributor.affiliationНаціональний університет “Львівська політехніка”
dc.contributor.affiliationLviv Polytechnic National University
dc.contributor.authorХома, Ю. В.
dc.contributor.authorБенч, А. Я.
dc.contributor.authorKhoma, Y.
dc.contributor.authorBench, A.
dc.coverage.placenameЛьвів
dc.coverage.placenameLviv
dc.date.accessioned2021-04-20T11:41:54Z
dc.date.available2021-04-20T11:41:54Z
dc.date.created2019-03-01
dc.date.issued2019-03-01
dc.description.abstractАвтоматичний переклад, розпізнавання мови та її синтез, розпізнавання об’єктів та навіть людських емоцій – надзвичайно складні завдання, із якими легко справляються сучасні смартфони. Їх ефективна реалізація стала можливою завдяки широкому застосуванню алгоритмів штучного інтелекту та машинного навчання, серед яких надзвичайно популярними є штучні нейронні мережі та алгоритми глибокого навчання. Ці алгоритми проникли в усі галузі індустрії, а їх стрімкий розвиток неможливий без застосування апаратної акселерації та чіткої взаємодії між апаратними складовими та програмним забезпеченням. Особливо актуальним це завдання стає, коли програмне забезпечення, призначене для застосування в хмарах, адаптується для невеликих за розміром та обчислювальними потужностями вбудованих систем. Статтю присвячено трьом пунктам, що, відповідно, пов’язані з програмним забезпеченням глибокого навчання, спеціалізованою апаратурою на основі GPU та перспективами побудови акселераторів для алгоритмів глибокого навчання на основі програмованих логічних матриць. У роботі проведено порівняльний аналіз найпопулярніших програмних фреймворків, таких як Caffe, Theano, Torch, MXNet, Tensorflow, Neon, CNTK. Описано переваги GPU-рішень на основі CUDA і cuDNN. Розглянуто перспективи FPGA як високошвидкісних та енергоефективних рішень для розроблення алгоритмів глибокого навчання, особливо у поєднанні з мовою OpenCL.
dc.description.abstractThe automated translation, speech recognition and synthesis, object detection as well as emotion recognition are well known complex tasks that modern smartphone can solve. It became possible with intensive usage of algorithms of Artificial Intelligence and Machine Learning. Most popular now are implementations of deep neural networks and deep learning algorithms. Such algorithms are widely used in all verticals and need hardware accelerators as well as deep cooperation between both software and hardware parts. The mentioned task became very actual during embedding of cloud-based algorithms into systems with limited computing capabilities, small physical size, and extremely low power consumption. The aim of this paper is to compare existing software and hardware solutions dedicated to the development of artificial neural networks and deep learning applications. The paper is focused on three topics related to deep learning software frameworks, specialized GPU-based hardware, and prospects of deep learning acceleration using FPGA. The most popular software frameworks, such as Caffe, Theano, Torch, MXNet, Tensorflow, Neon, CNTK have been compared and analyzed in the paper. Advantages of GPU solutions based on CUDA and cuDNN frameworks have been described. Prospects of FPGA as high-speed and power-efficient solutions for deep learning algorithm design, especially in terms of combination with OpenCL language have been discussed in the paper.
dc.format.extent97-102
dc.format.pages6
dc.identifier.citationХома Ю. В. Порівняльний аналіз програмно-апаратного забезпечення алгоритмів глибокого навчання / Ю. В. Хома, А. Я. Бенч // Комп’ютерні системи та мережі. — Львів : Видавництво Львівської політехніки, 2019. — Том 1. — № 1. — С. 97–102.
dc.identifier.citationenKhoma Y. Comparative analysis of the specialized software and hardware for deep learning algorithms / Y. Khoma, A. Bench // Kompiuterni systemy ta merezhi. — Lviv : Lviv Politechnic Publishing House, 2019. — Vol 1. — No 1. — P. 97–102.
dc.identifier.issn2707-2371
dc.identifier.urihttps://ena.lpnu.ua/handle/ntb/56350
dc.language.isouk
dc.publisherВидавництво Львівської політехніки
dc.publisherLviv Politechnic Publishing House
dc.relation.ispartofКомп’ютерні системи та мережі, 1 (1), 2019
dc.relation.references1. Christopher M. Bishop. Pattern Recognition and Machine Learning (Information Science and Statistics), Springer-Verlag Berlin, Heidelberg, 2006.
dc.relation.references2. Ian Goodfellow, Yoshua Bengio, Aaron Courville, Deep Learning, The MIT Press, 2016.
dc.relation.references3. L. Deng and D. Yu. Deep Learning: Methods and Applications. Foundations and Trends in Signal Processing, 2013, vol. 7, nos. 3–4, pp. 197–387.
dc.relation.references4. Mostapha Zbakh, Mohammed Essaaidi, Pierre Manneback, Chunming Rong, Cloud Computing and Big Data: Technologies, Applications and Security, Springer International Publishing, 2019.
dc.relation.references5. Gerassimos Barlas, Multicore and GPU Programming: An Integrated Approach, Morgan Kaufmann Publishers Inc., San Francisco, CA, 2014.
dc.relation.references6. Seonwoo Min, Byunghan Lee, Sungroh Yoon; Deep learning in bioinformatics, Briefings in Bioinformatics, Volume 18, Issue 5, 1 September 2017, pp. 851–869.
dc.relation.references7. NVIDIA GPU Computing. https://www.nvidia.com/object/doc_gpu_compute.html
dc.relation.references8. CUDA Toolkit Documentation. https://docs.nvidia.com/cuda/
dc.relation.references9. cuDNN Developer Guide. https://docs.nvidia.com/deeplearning/ sdk/cudnn-developer-guide/index.html
dc.relation.references10. Amazon EC2 F1 Instances. https://aws.amazon.com/ec2/ instance-types/f1/
dc.relation.references11. Cloud TPU documentation. https://cloud.google.com/tpu/docs/
dc.relation.references12. Accelerating DNNs with Xilinx Alveo Accelerator Cards. https://www.xilinx.com/support/documentation/ white_papers/wp504-accel-dnns.pdf
dc.relation.references13. An OpenCLTM Deep Learning Accelerator on Arria 10. https://arxiv.org/pdf/1701.03534.pdf.
dc.relation.referencesen1. Christopher M. Bishop. Pattern Recognition and Machine Learning (Information Science and Statistics), Springer-Verlag Berlin, Heidelberg, 2006.
dc.relation.referencesen2. Ian Goodfellow, Yoshua Bengio, Aaron Courville, Deep Learning, The MIT Press, 2016.
dc.relation.referencesen3. L. Deng and D. Yu. Deep Learning: Methods and Applications. Foundations and Trends in Signal Processing, 2013, vol. 7, nos. 3–4, pp. 197–387.
dc.relation.referencesen4. Mostapha Zbakh, Mohammed Essaaidi, Pierre Manneback, Chunming Rong, Cloud Computing and Big Data: Technologies, Applications and Security, Springer International Publishing, 2019.
dc.relation.referencesen5. Gerassimos Barlas, Multicore and GPU Programming: An Integrated Approach, Morgan Kaufmann Publishers Inc., San Francisco, CA, 2014.
dc.relation.referencesen6. Seonwoo Min, Byunghan Lee, Sungroh Yoon; Deep learning in bioinformatics, Briefings in Bioinformatics, Volume 18, Issue 5, 1 September 2017, pp. 851–869.
dc.relation.referencesen7. NVIDIA GPU Computing. https://www.nvidia.com/object/doc_gpu_compute.html
dc.relation.referencesen8. CUDA Toolkit Documentation. https://docs.nvidia.com/cuda/
dc.relation.referencesen9. cuDNN Developer Guide. https://docs.nvidia.com/deeplearning/ sdk/cudnn-developer-guide/index.html
dc.relation.referencesen10. Amazon EC2 F1 Instances. https://aws.amazon.com/ec2/ instance-types/f1/
dc.relation.referencesen11. Cloud TPU documentation. https://cloud.google.com/tpu/docs/
dc.relation.referencesen12. Accelerating DNNs with Xilinx Alveo Accelerator Cards. https://www.xilinx.com/support/documentation/ white_papers/wp504-accel-dnns.pdf
dc.relation.referencesen13. An OpenCLTM Deep Learning Accelerator on Arria 10. https://arxiv.org/pdf/1701.03534.pdf.
dc.relation.urihttps://www.nvidia.com/object/doc_gpu_compute.html
dc.relation.urihttps://docs.nvidia.com/cuda/
dc.relation.urihttps://docs.nvidia.com/deeplearning/
dc.relation.urihttps://aws.amazon.com/ec2/
dc.relation.urihttps://cloud.google.com/tpu/docs/
dc.relation.urihttps://www.xilinx.com/support/documentation/
dc.relation.urihttps://arxiv.org/pdf/1701.03534.pdf
dc.rights.holder© Національний університет “Львівська політехніка”, 2019
dc.rights.holder© Хома Ю. В., Бенч А. Я., 2019
dc.subjectштучний інтелект
dc.subjectалгоритми глибокого навчання
dc.subjectштучні нейронні мережі
dc.subjectпрограмні рішення
dc.subjectartificial intelligence
dc.subjectdeep learning algorithms
dc.subjectartificial neural networks
dc.subjectsoftware solutions
dc.subject.udc004.8
dc.titleПорівняльний аналіз програмно-апаратного забезпечення алгоритмів глибокого навчання
dc.title.alternativeComparative analysis of the specialized software and hardware for deep learning algorithms
dc.typeArticle

Files

Original bundle
Now showing 1 - 2 of 2
No Thumbnail Available
Name:
2019v1n1_Khoma_Y-Comparative_analysis_of_the_97-102.pdf
Size:
706.59 KB
Format:
Adobe Portable Document Format
No Thumbnail Available
Name:
2019v1n1_Khoma_Y-Comparative_analysis_of_the_97-102__COVER.png
Size:
385.63 KB
Format:
Portable Network Graphics
License bundle
Now showing 1 - 1 of 1
No Thumbnail Available
Name:
license.txt
Size:
2.98 KB
Format:
Plain Text
Description: