Математичне моделювання апаратно-оптичних спотворень аерофотоданих

dc.contributor.affiliationПрАТ «Вищий навчальний заклад «Міжрегіональна академія управління персоналом»
dc.contributor.authorКисіль, Андрій
dc.coverage.placenameЛьвів
dc.date.accessioned2025-10-28T14:44:09Z
dc.date.issued2025
dc.date.submitted2025
dc.description.abstractПроведено формалізацію математичних моделей спотворень цифрових зображень, що виникають при аерофотозйомці з бортових систем безпілотних літальних апаратів та істотно впливають на точність і достовірність алгоритмів автоматизованого виявлення й класифікації візуальних об’єктів у складному зовнішньому середовищі. Запропоновано узагальнену схему класифікації спотворень, яка враховує джерела їх виникнення та розподіляє дефекти на апаратно-оптичні, динамічні та зовнішні фактори, що зумовлюють структурну нестабільність вхідних фотоданих. У рамках дослідження здійснено постановку задачі математичного моделювання ключових типів апаратно-оптичних спотворень, таких як сферична аберація, що формалізується через позиційно-залежну функцію розсіювання точки; хроматична аберація, яка описується як лінійне зміщення координат каналів адитивної колірної схеми залежно від радіальної відстані до центру кадру; геометрична дисторсія, представлена у вигляді радіальної трансформації координат пікселів із урахуванням калібрувальних параметрів лінзи; дефокусування, моделювання якого виконано за допомогою просторово-варіативного гаусового ядра розмиття з урахуванням локальної глибини сцени; а також шуми фотоматриці, описані як сукупність випадкових процесів з використанням нормального та пуасонівського розподілів. У статті обґрунтовано вибір зазначених математичних моделей як бази для генерації синтетичних зображень у задачах тренування нейромережевих архітектур глибинного навчання, спрямованих на підвищення стійкості до реальних спотворень. Проведено порівняльний аналіз впливу кожного типу спотворення на якість матриці цифрового зображення, ступінь втрати інформативності, а також його придатність до подальшої обробки, зокрема на етапах сегментації, виявлення та класифікації візуальних об’єктів в умовах змінного фону, часткового перекриття або слабкого освітлення. Розроблено методологічні рекомендації щодо генерації навчальних вибірок із заданими характеристиками складності та спотворень, які враховують реальні умови функціонування систем фотореєстрації безпілотних літальних апаратів, включаючи змінне природне освітлення, нестабільність платформи, вібраційні навантаження, атмосферне розсіювання, а також конструктивні обмеження компактних сенсорів. Зазначено, що застосування адаптивно згенерованих наборів даних із апріорно змодельованими спотвореннями дозволяє суттєво підвищити стійкість, точність і властивості до узагальнення сучасних нейромережевих моделей, зокрема в умовах практичного застосування безпілотних платформ на лінії зіткнення. This study presents the formalization of mathematical models of hardware-optical distortions in digital images captured during aerial photography from onboard systems of Unmanned Aerial Vehicles (UAVs). These distortions significantly affect the accuracy and reliability of automated object detection and classification algorithms in complex outdoor environments. A generalized classification scheme of distortions is proposed, accounting for their origins and dividing image degradation into hardwareoptical, dynamic, and environmental factors that induce structural instability in the input data. The research formulates mathematical modeling tasks for key types of hardware-optical distortions, including: spherical aberration is formalized through a spatially-dependent point spread function (PSF); chromatic aberration is described as linear displacement of additive color channels as a function of radial distance from the image center; geometric distortion is modeled by radial coordinate transformation using calibrated lens parameters; defocus blur is represented by a spatially-variant Gaussian blur kernel incorporating local scene depth; and sensor noise is modeled as a combination of stochastic processes using normal and Poisson distributions. The paper substantiates the selection of these mathematical models as a foundation for generating synthetic image datasets in the training of deep learning neural architectures, with the goal of enhancing robustness to real-world distortions. A comparative analysis is performed to assess the impact of each distortion type on image quality, information loss, and suitability for further processing-particularly at the stages of segmentation, object detection, and classification under conditions such as variable backgrounds, partial occlusion, or low illumination. Methodological recommendations are developed for generating training datasets with defined levels of complexity and distortion, reflecting the real-world conditions of UAV imaging systems, including varying natural lighting, platform instability, vibration, atmospheric scattering, and design limitations of compact sensors. The study concludes that the use of adaptively generated datasets with a priori modeled distortions significantly improves the robustness, accuracy, and generalization capability of modern neural network models, especially in practical deployments of UAV platforms along active confrontation lines.
dc.format.pages178-189
dc.identifier.citationКисіль А. Математичне моделювання апаратно-оптичних спотворень аерофотоданих / Андрій Кисіль // Вісник Національного університету "Львівська політехніка". Інформаційні системи та мережі. – 2025. – Випуск 18 (частина 1). – С. 178–189.
dc.identifier.urihttps://ena.lpnu.ua/handle/ntb/115496
dc.language.isouk
dc.publisherНаціональний університет «Львівська політехніка»
dc.relation.referencesBarisić, A., Petrić, F., & Bogdan, S. (2021). Sim2Air – Synthetic aerial dataset for UAV monitoring. In Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision (WACV), 2021. Barisić, A., Petrić, F., & Bogdan, S. (2022). Sim2Air – Synthetic aerial dataset for UAV monitoring. IEEE Robotics and Automation Letters, 7(2), 3757–3764. https://doi.org/10. 1109/LRA.2022.3147337 Chabok, M. (2012). Eliminating and modelling non-metric camera sensor distortions caused by sidewise and forward motion of the UAV. In ISPRS Archives—XL 1/W2 (pp. 73–78). International Society for Photogrammetry and Remote Sensing. Dewez, T. J. B., Diogo, A., François, M., & Clercq, E. (2021). UAV-based structural damage mapping: A review. ISPRS International Journal of Geo-Information, 9(3), 187. Gao, Y.-L., Chen, J., Dam, T., Ferdaus, M. M., Poenar, D. P., & Duong, V. N. (2024). Dehazing remote sensing and UAV imagery: A review of deep learning, prior-based, and hybrid approaches. arXiv. https://doi.org/10.48550/arXiv.2405.07520 Incekara, A. H., & Şeker, D. Z. (2021). Rolling shutter effect on the accuracy of photogrammetric product produced by low cost UAV. International Journal of Environment and Geoinformatics, 8(4), 549–553. https://doi.org/10.30897/ijegeo.948676 Jiang, H., Meingast, M., Geyer, C., Sastry, S. (2005). Geometric models of rolling-shutter cameras. arXiv. https://doi.org/10.48550/arXiv.cs/0503076 Kamilaris, A., van den Brink, C., & Karatsiolis, S. (2019). Training deep learning models via synthetic data: Application in unmanned aerial vehicles. arXiv. https://doi.org/10.48550/arXiv.1908.06472 Kiefer, B., Ott, D., & Zell, A. (2021). Leveraging synthetic data in object detection on unmanned aerial vehicles. arXiv. https://doi.org/10.48550/arXiv.2112.12252 Kong, F., Huang, B., Bradbury, K., & Malof, J. M. (2020). The Synthinel 1 dataset: A collection of high resolution synthetic overhead imagery for building segmentation. arXiv. https://doi.org/10.48550/ arXiv.2001.05130 Lenhard, T. R., Weinmann, A., Franke, K., & Koch, T. (2025). SynDroneVision: A synthetic dataset for image based drone detection. Proceedings of WACV 2025. Li, X., Suo, J., Zhang, W., Yuan, X., & Dai, Q. (2021). Universal and Flexible Optical Aberration Correction Using Deep Prior Based Deconvolution. arXiv. https://doi.org/10.48550/arXiv.2104.03078 Maxey, C., Choi, J., Lee, H., Manocha, D., & Kwon, H. (2023). UAV Sim: NeRF based synthetic data generation for UAV based perception. arXiv. https://doi.org/10.48550/arXiv.2310.16255 Munir, A., Siddiqui, A. J., Anwar, S., El Maleh, A., Khan, A. H., & Rehman, A. (2024). Impact of adverse weather and image distortions on vision based UAV detection: A performance evaluation of deep learning models. Drones, 8(11), 638. https://doi.org/10.3390/drones8110638 Pável, S., Sándor, C., & Csató, L. (2019). Distortion Estimation Through Explicit Modeling of the Refractive Surface. arXiv. https://doi.org/10.48550/arXiv.1909.10820 Riazul Islam, S. M. (2023). Drones on the rise: Exploring the current and future potential of UAVs. arXiv. https://doi.org/10.48550/arXiv.2304.13702 Shelekhov, A., Afanasiev, A., Shelekhova, E., Kobzev, A., Tel’minov, A., Molchunov, A., & Poplevina, O. (2022). Low-altitude sensing of urban atmospheric turbulence with UAV. Drones, 6(3), 61. https://doi.org/10.3390/drones6030061 Trouvé-Peloux, P., Champagnat, F., Le Besnerais, G., Druart, G., & Idier, J. (2021). Performance model of depth from defocus with an unconventional camera. Journal of the Optical Society of America A, 38(10), 1489– 1500. https://doi.org/10.1364/JOSAA.424621 Wu, S., He, X., & Chen, X. (2025). Weamba: Weather-degraded remote sensing image restoration with multirouter state space model. Remote Sensing, 17(3), 458. https://doi.org/10.3390/rs17030458 Zhang, Q., & Fraser, C. (2022). A Bi Radial Model for Lens Distortion Correction of Low Cost UAV Cameras. Remote Sensing, 15(22), 5283. https://doi.org/10. 3390/rs15225283 Zheng, T., Zhang, G., Xu, Y., & Xia, G.-S. (2023). A review on deep learning in UAV remote sensing. Remote Sensing, 15(1), 149. Zwęgliński, T. (2020). The use of drones in disaster aerial needs reconnaissance and damage assessment – Threedimensional modeling and orthophoto map study. Sustainability, 12(15), 6080. https://doi.org/10. 3390/su12156080
dc.relation.urihttps://doi.org/10.23939/sisn2025.18.178
dc.subjectUAV, аерофотозйомка, аероплатформа, оптичні спотворення, математичне моделювання, глибинне навчання, адаптація даних, UAV, aerial imaging, aerial platform, optical distortions, mathematical modeling, deep learning, data adaptation
dc.subject.udc004.942:519.876
dc.titleМатематичне моделювання апаратно-оптичних спотворень аерофотоданих
dc.title.alternativeMathematical modeling of hardware-optical distortions in aerial image data
dc.typeArticle

Files

Original bundle

Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
maket2512781chastina-180-191.pdf
Size:
589.54 KB
Format:
Adobe Portable Document Format

License bundle

Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
license.txt
Size:
1.71 KB
Format:
Item-specific license agreed upon to submission
Description: