Юрчук, Ірина АркадіївнаІрина АркадіївнаЮрчукСеменченко, ТарасТарасСеменченко2026-03-132026-03-132025-11-17Yurchuk, I., & Semenchenko, T. (2025). Motion-consistent temporal fusion for UAV detection and tracking. Advanced Information Technology, (1), 22–28. https://doi.org/10.17721/AIT.2025.1.03UDC 004.9310.17721/AIT.2025.1.03https://ir.library.knu.ua/handle/15071834/12515Background. Detecting and tracking Unmanned Aerial Vehicles (UAVs) in video streams is essential for modern air-space monitoring yet remains challenging because UAVs are small, fast and easily confused with birds or background clutter. Conventional detectors produce noisy, frame-wise boxes, while standard trackers still suffer from false positives and identity switches. The purpose of this study is to stabilize UAV detections by adding a motion-aware temporal fusion method to a mainstream detector-tracker pipeline. Methods. A detection-tracking pipeline was constructed using an RT-DETR (Real-Time Detection Transformer) and ByteTrack baseline, extended with a lightweight, training-free motion-consistent fusion (MCF) method. The method (i) aggregates bounding-box history over five frames, (ii) averages spatial and confidence values, and (iii) penalizes tracks whose short-term velocity or angular change exceeds empirically chosen thresholds. No appearance features or additional learning are required, so the solution runs in real time on a single GPU. Results. Experiments on a labelled UAV-video dataset show that the proposed method increases Multiple Object Tracking Accuracy (MOTA) from 0.533 to 0.591, precision from 73 % to 84 %, and reduces identity switches from 60 to 28 (a 53 % improvement in ID stability). Recall decreases slightly from 90 % to 76 %, reflecting a deliberate trade-off: the system filters unstable or non-UAV motion to improve track consistency and suppress false positives. The evaluation was performed on more than 1,000 video sequences, ensuring robustness across diverse flight environments. Conclusions. The motion-consistent fusion method significantly enhances both accuracy and temporal coherence while adding minor computational cost. It can be added into existing detection–tracking systems and is particularly suited for real-time UAV surveillance applications, though performance may degrade if drones execute extremely abrupt maneuvers outside the predefined motion thresholds.Вступ. Виявлення та відстеження безпілотних літальних апаратів (БПЛА) у відеопотоках є критично важливим завданням сучасного моніторингу повітряного простору. Водночас воно залишається складним через малі розміри, швидкий рух БПЛА та їхню схожість із птахами чи фоновими об’єктами. Типові детектори формують нестабільні результати, які залежать від кадрів, а класичні трекери часто дають хибні спрацьовування та помилки детекції. Метою цієї роботи є стабілізація детекцій БПЛА додаванням до стандартного детекції-трекінг пайплайну спеціального методу часово-просторового ф’южна, чутливого до характеру руху об’єкта. Методи. Базову систему RT-DETR + ByteTrack розширено за допомогою легкого методу узгодженого з рухом згладжування (MCF), який не залежить від навчання. Цей метод: (i) агрегує історію обмежувальних рамок за останні п’ять кадрів, (ii) усереднює просторові координати та рівні довіри, (iii) штрафує знайдені об’єкти, у яких короткочасні зміни швидкості або кута перевищують емпірично обрані пороги. Жодні ознаки зовнішності чи додаткове навчання не потрібні, тож рішення працює в реальному часі на одному GPU. Результати. Експерименти на розміченому наборі відео з БПЛА показують, що запропонований метод підвищує MOTA з 0.533 до 0.591, Precision – із 73 % до 84 %, а кількість помилок ідентифікації зменшується із 60 до 28 (покращення на 53 % у стабільності ідентифікації). Recall трохи знижується з 90 % до 76 %, що відображає свідомий компроміс: система відфільтровує нестабільні або нехарактерні для БПЛА траєкторії, щоб покращити точність і зменшити кількість хибних спрацьовувань. Оцінювання проведено на понад 1 000 відеозаписах, що забезпечує надійність результатів у різноманітних умовах польоту. Висновки. Запропонований метод ф’южна суттєво покращує як точність, так і стабільність результатів у послідовності кадрів відеовідстеження, практично не збільшуючи обчислювальні витрати. Його можна легко інтегрувати у вже наявні системи детекції та трекінгу. Метод особливо ефективний для застосування в реальному часі, хоча його продуктивність може знижуватися у випадках різких або непередбачуваних маневрів БПЛА поза межами заздалегідь визначених параметрів руху.enUAVObject TrackingObject DetectionFusion AlgorithmMotion FilterRT-DETRByteTrackБПЛАтрекінг об’єктівдетекція об’єктівалгоритм ф’южнафільтр рухуRT-DETRByteTrackMotion-consistent temporal fusion for UAV detection and trackingМетод узгодженого за рухом часового ф’южна для виявлення та відстеження БПЛАСтаття