Розвиток науки та її застосування в багатьох практичних галузях базуються на використанні штучного інтелекту. Основними його напрямками є інженерія даних, комп’ютерний аналіз, нечітка логіка, машинне сприйняття, видобуток знань та інші. Методологічну основу методів штучного інтелекту складають математичні методи та інтелектуальні моделі, які знаходяться в постійному розвитку. Особливо активно розвиваються математичні моделі та методи, які базуються на великій кількості даних та інкорпорують їх за допомогою методів глибинного навчання. Серед найважливіших практичних застосувань, в яких активно використовуються методи штучного інтелекту, основані на глибинному навчанні з використанням великих об’ємів даних, є дослідження сейсмічної активності Землі, екологічний моніторинг навколишнього середовища, виявлення аномальних даних в кібернетичній безпеці, аналіз геопросторових даних та інші.
Одним з важливих аспектів, що зумовили можливість такого розвитку математичних методів глибинного навчання є поява великих об’ємів доступних даних та обчислюваних потужностей. В зв’язку з цим останні роки швидкими темпами розвивається сфера аналізу багатовимірних зашумлених даних великого об’єму. Разом з тим для задачі аналізу багатовимірних зашумлених даних великого об’єму використання методів глибинного навчання в тому вигляді, в якому вони були розроблені для інших загальновідомих задач, неможливе. Наявні публікації та експерименти з використання глибинного навчання в цій сфері проводились лише для невеликого об’єму даних з рівномірним розподілом у вхідному просторі, що є лише частковим випадком, який неможливо поширити на дані великого об’єму з не рівномірним розподілом у вхідному просторі. Не зважаючи на велику схожість математичної постановки задачі аналізу багатовимірних зашумлених даних та постановок задач для традиційного комп’ютерного аналізу та машинного сприйняття, існують і принципові відмінності між ними.
Найбільш значні та успішні результати в області штучного інтелекту з глибинним навчанням були отримані в роботах закордонних авторів Куніхіко Фукусіми, Яна Лекуна, Йошуа Бенджио та Джеффри Хинтона, а також в роботах українських авторів О.Г. Івахненка, М.З. Згуровського, І.В. Сергієнка, Н.Д. Панкратової, О.А. Павлова, Н.М. Куссуль та інших. Разом з тим прогрес потужності обчислювальної техніки та поява у вільному доступі великої кількості багатовимірних даних робить актуальним задачу розробки математичних методів та моделей штучного інтелекту з глибинним навчанням для аналізу багатовимірних зашумлених даних великого об’єму в задачах геопрострового аналізу та екологічного моніторингу.
Метою дисертаційного дослідження є розробка та вдосконалення математичних методів глибинного навчання, які базуються на згорткових глибинних нейронних мережах та відрізняються ініціалізацією початкових ваг мереж при використанні немаркованих даних на основі розрідженого кодування, що веде до підвищення точності задач геопросторового аналізу.
В дисертації вперше отримані такі нові наукові результати:
1. Вперше розроблено математичний метод уніфікації подання багатовимірних зашумлених геопросторових даних, оснований на розрідженому кодуванні вхідних немаркованих даних, який надає можливість побудови єдиної моделі класифікації для великих об’ємів вхідних даних, що дозволяє отримати вищу точність класифікації.
2. Удосконалено метод глибинного навчання на основі згорткових нейронних мереж, що на відміну від існуючих, ініціалізують початкові ваги не випадковими значеннями, а навчаються виокремлювати ознаки з великих обсягів немаркованих часових рядів багатовимірних даних та забезпечують суттєве підвищення загальної точності задач класифікації.
3. Вперше розроблено метод фільтрації отриманих карт класифікацій геопросторових даних для збільшення їх точності, на основі об’єктного підходу, на відміну від загальноприйнятих методів, що базуються на принципі ковзного вікна, який дозволяє зберегти форму об’єктів на карті.
4. Отримали подальший розвиток запропоновані методи класифікації багатовимірних зашумлених геопросторових даних шляхом реалізації у вигляді потоку виконання з використанням хмарної платформи Amazon, що дозволило зменшити час обробки інформації за рахунок ефективного доступу до даних та розпаралелювання.