Вісники та науково-технічні збірники, журнали

Permanent URI for this communityhttps://ena.lpnu.ua/handle/ntb/12

Browse

Search Results

Now showing 1 - 5 of 5
  • Thumbnail Image
    Item
    Процеси та складові елементи аналізу великих даних у системах дистанційного навчання
    (Видавництво Львівської політехніки, 2022-03-01) Пришляк, Андрій; Кунанець, Наталія Едуардівна; Пасічник, Володимир Володимирович; Pryshiak, A.; Kunanets, N.; Pasichnyk, V.; Національний університет “Львівська політехніка”; Lviv Polytechnic National University
    Проаналізовано вплив пандемії на освітні процеси в Україні. Розглянуто проблеми, які спостерігаються під час дистанційного навчання, позитивні та негативні фактори онлайн-освіти. Висвітлено чинники, які можуть призвести до конфліктних ситуацій в освітньому процесі та ускладнювати збирання й аналіз інформації. Запропоновано використовувати методи машинного навчання для аналізу великих даних у системах дистанційного навчання. Розглянуто метод аналізу головних компонент для зменшення розмірності обсягу вибірки та описано основні кроки, які потрібно виконати задля спрощення. Можливість аналізу забезпечується коректним функціонуванням системи дистанційного навчання, регламентованої ЗВО, взаємодією із усіма учасниками навчального процесу, а також своєчасним виконанням обов’язків, покладених на них.
  • Thumbnail Image
    Item
    Fog computing and Big data in projects of class smart city
    (2018-06-18) Duda, O.; Kunanets, N.; Matsiuk, O.; Pasichnyk, V.; Rzheuskyi, A.; Ternopil Ivan Puluj National Technical University; Lviv Polytechnic National University
    The possibilities of using the information technology of foggy computing, which implements the processes of selecting primary messages from sensory nodes and their processing, and further transferring the results of primary computing to server environments based on information technology platforms of cloud type are analyzed in the article. It is noted that both of the approaches – mist and cloud computing – can be effectively used in a wide range of applications, in particular those that are used in information and technology complexes of “smart cities”. The system of parameters which distinguishes a separate class of information technologies called Big data is analyzed in the paper. The analysis made it possible to fix 10 basic parameters of the so-called 10 v, with the help of which a separate class of information technologies is allocated. Big data technologies, along with the technologies of foggy and cloud computing are elements of a powerful information technology platform that allows us to solve a wide range of problems for smart cities. The authors illustrated the systemtechnological connections of these classes of information technologies and analyzed the possibilities of their use in the context of implementation of the information technology project “Ternopil Smart city”.
  • Thumbnail Image
    Item
    Класифікація методів аналізу Великих даних
    (Видавництво Львівської політехніки, 2017-03-28) Верес, О. М.; Оливко, Р. М.; Національний університет “Львівська політехніка”
    Описано особливості класифікації методів і технологій аналітики Великих даних, групи методів і технологій аналітики Великих даних, які класифікуються з урахуванням функціональних зв’язків та формальної моделі цієї інформаційної технології. Розв’язано задачу визначення концептів онтології аналітики Великих даних.
  • Thumbnail Image
    Item
    A new computational model for real gains in big data processing power
    (Lviv Politechnic Publishing House, 2017-02-01) Conrad S. M. Mueller; Computer Science Department of the University of the Witwatersrand
    Big data and high performance computing are seen by many as important tools that will be used to advance science. However, the computational power needed for this promise to materialize far exceeds what is currently available. This paper argues that the von Neumann computational model, the only model in everyday use, has inherent weaknesses that will prevent computers from achieving the envisaged performance levels. First, these weaknesses are explored and the properties of a computational model are identified that would be required to overcome these weaknesses. The performance benefits of implementing a model with these properties are discussed, making a case that a computational model with these properties has the potential to address the needs of high performance computing. Next, the paper presents a proposed computational model and argues that it is a viable alternative to the von Neumann model. The paper gives a simplified outline of an architecture and programming language that express the proposed computational model. The main feature of this computational model is that it processes variables as they become defined. These variables can be processed in any order and simultaneously, avoiding bottlenecks and enabling high levels of parallelism. Finally, the computational model is evaluated against the properties identified as desirable, showing that it is possible to design an architecture and programming language that do not have the weaknesses of the currently dominant von Neumann model. The paper concludes that the weaknesses which limit the performance of current computers can be overcome by exploring alternative computational models, architectures and programming languages, rather than by working towards incremental improvements to the existing dominant model.
  • Thumbnail Image
    Item
    Методи опрацювання Великих даних у федеративному сховищі даних
    (Видавництво Львівської політехніки, 2016) Болюбаш, Ю.
    Подано визначення Великих даних та описано основні характеристики. Подано моделі асоціацій між сутностями та характеристиками для різних категорій Nosql баз даних. Подано модель федеративного сховища Великих даних. Для представлення великих даних використано простір даних, який дає змогу працювати з різнотипними даними. Проте основною операцією інтеграції є не консолідація, а федералізація, що дає змогу зменшувати ємнісну складність запитів. Розроблено метод обміну різнотипними даними та приведення реляційних даних до моделі “сутність–характеристика”. Апробовано розроблені методи і алгоритми. There is given the Big data defenition and described the main characteristics. The models associations between entities and properties for the different categories Nosql databases “entity-characteristic” is constructed. For the presentation of Big data space there is used data that allows to work with heterogeneous data. However, the main operation is federalisation but no consolidation of integration, This allows capacitive reduce the complexity of requests. The method of heterogeneous data sharing and bringing to relational data model “entity-characteristic” was created. Were tested developed methods and algorithms.