Наукові записки НаУКМА. Комп'ютерні науки
Permanent URI for this community
Періодичне фахове видання "Наукові записки НаУКМА. Комп’ютерні науки" є друкованим засобом масової інформації, журналом відкритого доступу, в основу діяльності якого покладено публікацію наукових статей в галузі сучасної кiбернетики, інформатики та програмування. Засноване в 1996 році видання публікує статті українською та англійською мовами (за вибором автора) теоретичної та практичної спрямованості. До 2018 року журнал був складовою багатосерійного видання "Наукові записки НаУКМА" та мав назву "Наукові записки НаУКМА. Комп’ютерні науки".
Browse
Browsing Наукові записки НаУКМА. Комп'ютерні науки by Title
Now showing 1 - 20 of 101
Results Per Page
Sort Options
Item Automated Approach for the Importing the New Photo Set to Private Photo Album to Make it More Searchable(2020) Nikulin, Dmytro; Buchko, OlenaThis paper focuses on describing several Informational Retrieval (IR) Multimedia Systems that work primarily with private photo albums and it provides comparison of IR Multimedia Systems in terms of functionality. The Informational Retrieval Multimedia systems, used for comparison are selected as the most known and widely used as well. The Informational Retrieval Multimedia systems compared are Mylio, Google Photo, Apple Photo, Synology Moments and digiKam. Moreover, based on these systems comparison, this paper provides the definition of the end-point user needs. Then it provides the identification and the prioritization (based on the author’s experience and opinion) the issues in private information Retrieval multimedia systems to be addressed by any technical solution. The following issues have been addressed as the most important from the end-point user’s perspective: First of all, it is “Not existing EXIF file metadata”.(It is divided into two sub issues: not existing taken date and GEO data for place it was taken at); as second, the linking a photo to an author person entity (Based on camera brand and model given as metadata); And as the last one, linking the set of photos to the predefined type of event, like birthdays, anniversaries, holidays, trips etc.(Based on tagging the photos in semi-automated way). For each issue, this document has provided the technical approaches and program algorithms (in a pseudo code) as well. Also, the using of relevant tools is provided if applicable. Each tool mentioned is described in a few words and given with a reference to read about. This document has also described the human involvement into the process, if a totally automated process is not possible. As a conclusion this paper describes the key points that were identified during the identification and addressing the issues. The conclusion also gives a proposal for a technical solution (that is required to be used during importing the new photo set into existing IR Multimedia systems) with context diagram that represents the user, its devices with multimedia data, the system to import the data from user multimedia devices and Informational Retrieval multimedia system to keep the whole private multimedia and to search the target photo set. Finally, it gives the definition of workflow steps to describe the main activity flow (with human involvement and software as well) to be implemented in a technical solution in future.Item Distributed Systems Technical Audit(2020) Gorokhovskyi, Kyrylo; Zhylenko, Oleksii; Franchuk, OlehModern enterprise systems consist of many deployment artifacts, thus, microservices architecture is extremely popular now. The use of distributed systems is rapidly growing despite the increased complexity and the difficulty of building. The main reason for such a trend is that the advantages of distributed systems outweigh their disadvantages. Nevertheless, product release into the market is not a final step of software development lifecycle. Next important step is maintenance that continues much longer than development. System failures and delays in finding and fixing a problem can cause huge financial and reputational expenses. In addition, the new features introduced due to changes on the market should take place on time. Prior to releasing a product to market, we would like to know in advance possible technical gaps to understand what we can expect and maybe fix some issues in order to save time and money in future. In other words, we should be able to make a decision, if the product is ready for launch or not, relying on some data. Such analysis is as well necessary when we obtain ownership for an existing product. Technical audit helps to find out technical debt and assess risks related to maintenance and extension of the system. It should be considered as mandatory activity during release preparation and ownership transfer. Well-defined criteria would help to conduct an audit smoothly and find out most of the technical debt. Properly conducted technical audit reduces risks of problems after release but it does not guarantee commercial success of product or absence of problems at all. In this article we will define what distributed systems are, we will review Monolithic, Microservices and Serverless architectures, describe what are quality attributes and what should be taken into account during technical audits. Next, we will deep dive into the technical audit process, specify what aspects of the system must be considered during an audit. Then we will iterate over checklists items in order to provide guidelines based on the best practices in industry which helps to prepare for software system audit.Item Euclidean Algorithm for Sound Generation(2021-12-10) Gorokhovskyi, Semen; Laiko, ArtemEuclidean algorithm is known by humanity for more than two thousand years. During this period many applications for it were found, covering different disciplines and music is one of those. Such algorithm application in music first appeared in 2005 when researchers found a correlation between world music rhythm and the Euclidean algorithm result, defining Euclidean rhythms as the concept. In the modern world, music could be created using many approaches. The first one being the simple analogue, the analogue signal is just a sound wave that emitted due to vibration of a certain medium, the one that is being recorded onto a computer hard drive or other digital storage called digital and has methods of digital signal processing applied. Having the ability to convert the analogue signal or create and modulate digital sounds creates a lot of possibilities for sound design and production, where sonic characteristics were never accessible because of limitations in sound development by the analogue devices or instruments, nowadays become true. Sound generation process, which usually consists of modulating waveform and frequency and can be influenced by many factors like oscillation, FX pipeline and so on. The programs that influence synthesised or recorded signal called VST plugins and they are utilising the concepts of digital signal processing. This paper aims to research the possible application of Euclidean rhythms and integrate those in the sound generation process by creating a VST plugin that oscillates incoming signal with one of the four basic wave shapes in order to achieve unique sonic qualities. The varying function allows modulation with one out of four basic wave shapes such as sine, triangle, square and sawtooth, depending on the value received from the Euclidean rhythm generator, switching modulating functions introduces subharmonics, with the resulting richer and tighter sound which could be seen on the spectrograms provided in the publication.Item Image Shadow Removal Based on Generative Adversarial Networks(2020) Andronik, Vladyslav; Buchko, OlenaAccurate detection of shadows and removal in the image are complicated tasks, as it is difficult to understand whether darkening or gray is the cause of the shadow. This paper proposes an image shadow removal method based on generative adversarial networks. Our approach is trained in unsupervised fashion which means it does not depend on time-consuming data collection and data labeling. This together with training in a single end-to-end framework significantly raises its practical relevance. Taking the existing method for unsupervised image transfer between different domains, we have researched its applicability to the shadow removal problem. Two networks have been used. Тhe first network is used to add shadows in images and the second network for shadow removal. ISTD dataset has been used for evaluation clarity because it has ground truth shadow free images as well as shadow masks. For shadow removal we have used root mean squared error between generated and real shadow free images in LAB color space. Evaluation is divided into region and global where the former is applied to shadow regions while the latter to the whole images. Shadow detection is evaluated with the use of Intersection over Union, also known as the Jaccard index. It is computed between the generated and ground-truth binary shadow masks by dividing the area of overlap by the union of those two. We selected random 100 images for validation purposes. During the experiments multiple hypotheses have been tested. The majority of tests we conducted were about how to use an attention module and where to localize it. Our network produces better results compared to the existing approach in the field. Analysis showed that attention maps obtained from auxiliary classifier encourage the networks to concentrate on more distinctive regions between domains. However, generative adversarial networks demand more accurate and consistent architecture to solve the problem in a more efficient way.Item Information system assessment of the creditworthiness of an individual(2022) Nahirna, Alla; Chumachenko, Oleksandra; Pyechkurova, OlenaNowadays enterprise information systems of banks provide modules for calculating creditworthiness of the business. Such systems are complex and it is difficult to maintain and develop them. Moreover, it requires the involvement of large teams. In addition, systems are complicated to change and update in accordance with changes in current legislation. From another point of view, demand for consumer loans is high, and creating a separate module for calculating the creditworthiness of an individual is appropriate in case of increasing the adaptability to changes and updates of the system. Calculating the creditworthiness of an individual is relevant not only for the banking system, but also for other spheres such as logistics and marketing. The work describes the created information system for calculating the creditworthiness of an individual, which calculates the class of the borrower based on data from credit history, credit rating, quality characteristics, financial indicators of the person and characteristics of the credit transaction. The use of the Asp.Net Core platform and the Vue.js framework to build a software module that can be used both independently and easily integrated into other corporate systems is demonstrated. In this work the major steps of designing and developing the system are described.Item Investigation of the Relationship Between Software Metrics Measurements and its Maintainability Degree(2020) Hlybovets, Andrii; Shapoval, OleksandrThe goal of this work is to practically apply methods of empirical engineering software, algorithms for data collection and data analysis. The results include software measurement, analysis and selection of direct and indirect metrics for research and identification of dependencies between direct and indirect metrics. Based on the received results, there were built dependencies between software metrics and software expertise properties were selected by individual variation. For measurement results analysis there were used primary statistical analysis, expert estimations, correlation and regression analysis. Expert estimation is the dominant strategy when estimating software development effort. Typically, effort estimates are over-optimistic and there is a strong over-confidence in their accuracy. Primary data analysis is the process of comprehending the data collected to answer research questions or to support or reject research hypotheses that the study was originally designed to evaluate. Correlation analysis gives possibility to make some conclusions about which metrics and expert estimations are much coupled, and which are not. Regression analysis involves both graphical construction and analytical research and gives an ability to make a conclusion about which metrics and expert estimations are the most coupled. Analyzing regression lines for metrics of normal and nonnormal distributions give an ability to identify pairs of ‘metric – expert estimation’. There have been calculated and measured metrics relations for defining relation of such quality attributes as Understandability and Functionality Completeness. Understandability expresses the clarity of the system design. If the system is well designed, new developers are able to understand easily the implementation details and quickly begin contributing to the project. Functionality Completeness refers to the absence of omission errors in the program and database. It is evaluated against a specification of software requirements that define the desired degree of generalization and abstraction. Relationship between metric and expertise includes building direct relationships between the metric and expertise, indirect metrics and expertise. Additionally, it has been determined whether they have common trends of the relationship between those direct metrics and expert estimates, indirect metrics and expert estimates. The practical results of this work can be applied for software measurements to analyze what changes in the code (affecting given metric) will cause increasing or decreasing of what quality attribute.Item Serverless Event-driven Applications Development Tools and Techniques(2020) Morenets, Ihor; Shabinskiy, AntonServerless, a new cloud-based architecture, brings development and deployment flexibility to a new level by significantly decreasing the size of the deployment units. Nevertheless, it still hasn’t been clearly defined for which applications it should be employed and how to use it most effectively, and this is the focus of this research. The study uses Microsoft Azure Functions – one of the popular mature tools – because of its stateful orchestrators – Durable Functions. The tool is used to present and describe four flexible serverless patterns with code examples. The first pattern is HTTP nanoservices. The example demonstrates how flexible can be the Function-asa-Service model, which uses relatively small functions as deployment units. The second usage scenario described is a small logic layer between a few other cloud services. Thanks to its event-driver nature, serverless is well-suited for such tasks as making an action in one service after a specific event from another one. New functions easily integrate with the API from the first example. The third scenario – distributed computing – relies on the ability of Durable Functions to launch a myriad of functions in parallel and then aggregate their results. and distributed computing. A custom MapReduce implementation is presented in this section. The last pattern described in this research significantly simplifies concurrent working with mutable data by implementing the actor model. Durable Entities guarantee that messages are delivered reliably and in order, and also the absence of deadlocks. The results of this work can be used as a practical guide to serverless main concepts and usage scenarios. Main topic of future research was chosen to be the development of a full-fledged serverless application using typical patterns to study the architecture in more depth.Item Statical and Dynamical Software Analysis(2020) Sosnytskyi, Serhii; Glybovets, Mykola; Pechkurova, OlenaThe development of software built with quality has become an important trend and a natural choice in many organisations. Currently, methods of measurement and assessment of software quality, security, trustworthiness cannot guarantee safe and reliable operations of software systems completely and effectively. In this article statistical and dynamical software analysis methods, main concepts and techniques families are overviewed. The article has an overview of why combination of several analysis techniques is necessary for software quality and examples how static and dynamical analysis may be introduced in a modern agile software development life cycle. As a summary of techniques for software analysis, represented on Table 1, due to the computability barrier, no technique can provide fully automatic, robust, and complete analyses. Testing sacrifices robustness. Assisted proving is not automatic (even if it is often partly automated, the main proof arguments generally need to be human provided). Model-checking approaches can achieve robustness and completeness only with respect to finite models, and they generally give up completeness when considering programs (the incompleteness is often introduced in the modeling stage). Static analysis gives up completeness (though it may be designed to be precise for large classes of interested programs). Last, bug finding is neither robust nor complete. Another important dimension is scalability. In practice, all approaches have limitations regarding scalability, although these limitations vary depending on the intended applications (e.g., input programs, target properties, and algorithms used). Already implemented code could be analysed in a continuous integration environment by a tool like SonarQube. Properly configured metrics and quality gates provide fast and detailed feedback on incremental changes starting from development machine till highload enterprise production environments. Software analysis helps to improve quality and development speed in Agile development life cycle with reasonable cost.Item Technical comparison aspects of leading blockchain-based platforms on key characteristics(2018) Ivanov, Alexander; Babichenko, Yevhenii; Kanunnikov, Hlib; Karpus, Paul; Foiu-Khatskevych, Leonid; Kravchenko, Roman; Gorokhovskyi, Kyrylo; Nevmerzhitskyi, IevhenBlockchain as a technology is rapidly developing, finding more and more new entry points into everyday life. This is one of the elements of the technical Revolution 4.0, and it is used in the field of supply, maintenance of various types of registers, access to software products, combating DDOS attacks, distributed storage, fundraising for projects, IoT, etc. Nowadays, there are many blockchain-platforms in the world. They have one technological root but different applications. There are many prerequisites to the fact that in the future the number of new decentralized applications will increase. Therefore, it is important to develop a methodology for determining the optimal blockchain-based platform to solve a specific problem. As an example, consider the worldfamous platforms Ethereum, Nem, and Stellar. Each of them allows to develop decentralized applications, issue tokens, and execute transactions. At the same time, the key features of these blockchain-based platforms are not similar to one another. These very features will be considered in the article. Purpose. Identify the key parameters that characterize the blockchain-based platforms. This will provide an opportunity to present a complex blockchain technology in the form of a simple and understandable architecture. Based on these parameters and using the expertise of the article’s authors, we will be able to develop a methodology to be used to solve the problems of choosing the optimal blockchain-based platform for solving the problem of developing smart contracts and issuing tokens. Methods. Analysis of the complexity of using blockchain-based platforms. Implementation of token issuance, use of test and public networks, execution of transactions, analysis of the development team and the community, analysis of the user interface and the developer interface. Discussion. By developing a platform comparison methodology to determine optimal characteristics, we can take the development process to a new level. This will allow to quickly and effectively solve the tasks. Results. Creation of a methodology for comparison blockchain-based platforms.Item Автоматична генерація онтологій на основі статей українською мовою(2022) Жежерун, Олександр; Рєпкін, МаксимУ статті представлено систему, яка здатна генерувати нові онтології або доповнювати наявні на основі статей українською мовою. Описано онтології та алгоритм, який доречний для використання у автоматизованому виокремленні концептів із текстів природною мовою.Item Агентно-базована платформа IоТ для контролю навчального процесу(2019) Гороховський, Семен; Ямковий, Олександр; Кирієнко, Оксана; Пєчкурова, ОленаУ теоретичній частині роботи розглянуто базові положення концепції Інтернету речей та описано вимоги, які висувають до систем ІоТ. Також описано основні можливості та переваги використання програмних агентів та мультиагентних систем у реалізації різних ІоТ. У практичній частині запропоновано архітектурне рішення на основі мультиагентної системи для підтримки та управління комунікацією у мережі ІоТ обладнання. Наведене рішення здатне розв’язати проблеми неоднорідності пристроїв та комунікації, побудови гнучкої інфраструктури комунікації та інфраструктури групової комунікації в агентному середовищі, а також на рівні агента. Також було запропоновано агентну платформу, що полегшує комунікацію агентів, які працюють на різних пристроях (датчики SunSpot, смартфони) і використовують різні комунікаційні протоколи, надає можливість формувати агентів у групи для ефективного доставлення групових повідомлень. Продемонстровано переваги такого рішення на прикладі реалізації «Розумного Університету» (системи підтримки та управління навчальним процесом, що складається з різних типів датчиків та персональних смартфонів учасників навчального процесу) за використання розробленої мультиагентної платформи.Item Агентно-базований підхід до моделювання колективної роботи(2021-12-10) Гороховський, Семен; Радзієвська, ОлександраУ роботі розглянуто використання агентно-базованого підходу для моделювання соціальних взаємодій у команді на прикладі розв’язання Wilderness Survival: A Consensus-Seeking Task. Змодельовано процес обговорення задачі та досягнення компромісу агентами. Проаналізовано, наскільки результати моделювання збігаються з гіпотезою про те, що на успіх роботи команди більший вплив мають соціальні здібності учасників, ніж інтелектуальні здібності окремих членів команди. Звернуто увагу на ситуацію, коли не всі агенти однаково зацікавлені в загальному успіху команди. Створено агентну платформу для проведення експериментів та аналізу того, як різні риси учасників команди впливають на її загальний результат.Item Алгоритм вилучення ключових фрагментів зображень у системах відеопошуку(2022) Афонін, Андрій; Оксюта, ІринаУ статті описано алгоритм вилучення ключових кадрів фрагментів зображень у процесі оброблення відеозаписів для індексації у відеопошукових системах. Наведено дослідження сучасних методів машинного навчання у вирішенні задач детекції та кластеризації зображень для досягнення найвищої точності в процесі оброблення. Запропоновано метрики оцінки якості кадрів для визначення найкращих і ранжування. Результати роботи алгоритму може бути використано в системах розпізнавання облич для подальшого присвоєння міток у процесі відеопошуку.Item Алгоритм обчислення дводіагональної матриці ортогональним розкладанням на графічному процесорі(2021-12-10) Малашонок, Геннадiй; Сухарський, СергійУ роботі розглянуто та реалізовано алгоритм ортогонального розкладання матриці, який є першою частиною алгоритму SVD. Наведено реалізацію бідіагоналізації матриці та обчислення ортогональних множників методом Хаусхолдера в середовищі jCUDA на графічному процесорі, а також реалізовано алгоритм для центрального процесора для порівнянь. Проведено дослідження отриманих результатів, у яких експериментально визначалось пришвидшення обчислень за рахунок використання графічного процесора, порівняно з обчисленнями на центральному процесорі. Для матриці розміру 2048 використання відеокарти дає змогу пришвидшити обчислення у 53 рази.Item Алгоритми порівняння зображень для розв’язання задачі пошуку за вмістом(2018) Карпович, Артем; Глибовець, АндрійЗдійснено аналіз методів пошуку зображень за вмістом, охарактеризовано їхні недоліки та переваги з огляду на вимоги до сучасних пошукових систем (швидкість пошуку, релевантність, ресурсні затрати, якість отриманих даних та гнучкість пошукових процесів). Акцентовано увагу на перцептивних хеш-алгоритмах (Block Mean Value Based Hash, DCT Based Hash, Radial Variance Based Hash, Marr-Hildreth Operator Based Hash). Наведено офіційні результати тестування швидкості роботи алгоритмів. Визначено найбільш оптимальний алгоритм на сьогодні.Item Алготрейдинг криптоактивів із використанням штучного інтелекту(2019) Лесик, Андрій; Невмержицький, ЄвгенСтаттю присвячено використанню алгоробота зі штучним інтелектом для трейдингу криптовалют, який використовує розробник, із зазначенням результатів практичного тестування на реальній торгівлі криптоактивами. Надано перелік параметрів на базі індикатора Zig-Zag, які обирає штучний інтелект робота на підставі використання фактичного досвіду застосування налаштованої стратегії для її корекції з метою поліпшення результатів торгів. Робот постійно тестує попередні результати торгів і обирає параметри для встановлення ордерів із метою підвищення дохідності. На підставі роботи зроблено висновок щодо перспектив розвитку і збільшення популярності використання алгороботів зі штучним інтелектом для трейдинку криптовалютами і їх впливу на подальшу стабілізацію крипторинку і популяризації технології блокчейн.Item Аналіз методів відбору в генетичних алгоритмах(2021-12-10) Гулаєва, Наталія; Устілов, АртемРозглянуто методи відбору, що використовуються в генетичних алгоритмах із генераційним типом репродукції. Наведено основні теоретичні відомості про такі властивості методів відбору: шум, тиск, швидкість росту, швидкість репродукції, обчислювальна складність. Проведено порівняльний аналіз методів відбору за зазначеними властивостями. Охарактеризовано та проілюстровано зміни в розподілі коефіцієнта пристосованості особин популяції після застосування різних методів відбору.Item Аналіз і синтез технологій класифікації текстової інформації(2022) Кузнєцов, Владислав; Крак, Юрій; Ляшко, Володимир; Касянюк, ВедаРозглянуто задачу якісного аналізу процесу перетворення текстової інформації на набір ознак і відповідно перетворення цих ознак на набір, зручний для візуального аналізу. Розглянуто структуру типової технології з аналізу текстової інформації та визначено її основні елементи. Детально наведено опис кожного елементу технології аналізу та класифікації текстової інформації із залученням методів класифікації та групування ознак. Проведено експериментальні випробування окремих компонентів цієї технології.Item Багатовимірне впорядкування та його використання для вдосконалення інтерфейсу користувачів інформаційних систем(2018) Ющенко, ЮрійЗапропоновано багатовимірне впорядкування, яке узагальнює звичайне, лінійне, одновимірне сортування. Продемонстровано можливості поліпшення наочності та зручності інтерфейсу користувача інформаційних систем. Розглянуто методи збереження результатів багатовимірного впорядкування в початкових кодах програм.Item Байєсівська мережа в ІоТ на прикладі побудови кмітливої кур’єрської служби(2018) Кліщенко, Ладислава; Кудрявцева, ЮліяРозглянуто задачу побудови байєсівської мережі – орієнтованого ациклічного графа, з прорахуванням умовної та безумовної ймовірності змінних на прикладі оцінювання рейтингу водія за допомогою OBD-II давача.