Салата, Кирило2026-02-092026-02-092025Салата К. В. Використання Mixture of Experts з LLM-агрегатором для торговельного бота / Салата К. В. // Теоретичні та прикладні аспекти побудови програмних систем : праці 16 Міжнародної науково-практичної конференції, 23-24 листопада 2025 року, Київ / [за заг. ред. М. М. Глибовця, Т. В. Панченка та ін. ; Факультет інформатики Національного університету "Києво-Могилянська академія" та ін.]. - Київ : НаУКМА, 2025. - С. 55-56.https://ekmair.ukma.edu.ua/handle/123456789/38298This research focuses on the architecture of intelligent trading bot, based on the Mixture of Experts(MoE) combined with a large language model (LLM)- based aggregator. Within this system several specialized expert models generate forecasts regarding trading decisions, and the LLM aggregator analyzes the results of these experts' work and makes a final decision. The proposed architecture is expected to improve the accuracy and explainability of trading decisions through dynamic expert selection and multimodal analysis, providing better adaptation to complex market conditions compared to traditional approaches.Традиційні моделі машинного навчання досить часто стикаються з проблемою перенавчання та неможливістю урахування ринкових умов, через те що фінансові ринки характеризуються високою волатильністю та великою кількістю шуму у даних. Останнім часом для вирішення цих проблем все більше уваги звертають на архітектуру Mixture of Experts (MoE), яка містить суміш експертів, які можуть підвищити узагальнюючу здатність за рахунок використання декількох спеціалізованих експертних підсистем[1].ukмоделі машинного навчанняархітектура Mixture of Experts (MoE)методи рекурентних нейронних мереж (RNN)навчання з підкріпленням (RL)матеріали конференціїВикористання Mixture of Experts з LLM-агрегатором для торговельного ботаMixture of Experts with LLM aggregation for trading botConference materials