Preview

Вестник Концерна ВКО «Алмаз – Антей»

Расширенный поиск

Классификация объектов военной техники с использованием сверточной нейронной сети на радиолокационных изображениях, сформированных в условиях шумовых помех

https://doi.org/10.38013/2542-0542-2022-1-71-81

Полный текст:

Аннотация

В статье решена задача определения зависимости точности классификации радиолокационных изображений объектов десяти классов (из открытой части стандартного набора Moving and Stationary Target Acquisition and Recognition) от отношения «шумовая помеха / сигнал» (от –20 до 20 дБ). В отличие от традиционного подхода к ее решению на основе методов статистического анализа получение оценок точности классификации проводилось с использованием восьмислойной глубокой сверточной нейронной сети. Установлено, что срыв распознавания (снижение точности классификации до 30 % и менее) объектов авто- и бронетехники в РЛС с субметровым разрешением требует создания помехи с фоновым уровнем, как минимум на 10 дБ превышающим средний уровень отметок объектов. Также показано, что использование предобученных сетей с архитектурами MobileNetV1 и Xception не приводит к улучшению точности классификации.

Для цитирования:


Купряшкин И.Ф., Мазин А.С. Классификация объектов военной техники с использованием сверточной нейронной сети на радиолокационных изображениях, сформированных в условиях шумовых помех. Вестник Концерна ВКО «Алмаз – Антей». 2022;(1):71-81. https://doi.org/10.38013/2542-0542-2022-1-71-81

For citation:


Kupryashkin I.F., Mazin A.S. Classification of military equipment targets on radar images generated in noise interference conditions using a convolutional neural network. Journal of «Almaz – Antey» Air and Space Defence Corporation. 2022;(1):71-81. https://doi.org/10.38013/2542-0542-2022-1-71-81

ВВЕДЕНИЕ

В настоящее время глубокие сверточные нейронные сети (ГСНС) стали одним из наиболее широко применяемых инструментов решения ряда задач, традиционно рассматриваемых как задачи компьютерного зрения [1–3]. Это обусловлено их высокой эффективностью, превышающей или как минимум не уступающей эффективности традиционных подходов.

Радиолокация не является исключением. Так, в обширном обзоре [4] авторами среди основных направлений применения технологий глубокого обучения в задачах обработки данных радиолокационной съемки выделяются поиск и классификация объектов на радиолокационных изображениях (РЛИ). В качестве основного инструмента при этом рассматриваются ГСНС, в связи с чем как одни из первых [5][6], так и значительная часть современных работ [7–18] посвящены поиску их эффективных архитектур и гиперпараметров.

Сравнение точности классификации объектов с помощью алгоритмов, рассматриваемых как традиционные (K-ближайших соседей (K-Neighbor), опорных векторов (SVM), AdaBoost, множества решающих деревьев (Random Forest), CART и др.), и точности, достигаемой ГСНС, демонстрирует уверенное преимущество последних даже при отсутствии предобработки изображений, их случайных смещениях или поворотах [5][19–21].

Сочетание непрерывного улучшения пространственного разрешения РЛИ с качественным скачком эффективности автоматического дешифрирования за счет применения ГСНС делает системы видовой радиолокационной разведки весьма ценным источником разведывательных сведений и одновременно – весьма сложным объектом с точки зрения эффективного радиопротиводействия.

В известной литературе практически не отражены результаты исследований эффективности классификации объектов с помощью ГСНС на РЛИ, сформированных в условиях преднамеренных помех. Но, судя по тенденции к их все более широкому использованию, получение таких оценок в интересах уточнения требований к средствам радиопротиводействия авиационным и космическим РЛС является актуальной задачей.

В связи с этим целью работы является определение точности классификации радиолокационных изображений объектов военной и специальной техники, формируемых в условиях преднамеренных активных шумовых помех с различной интенсивностью, выполняемой с использованием глубоких сверточных нейронных сетей.

1. ПОДГОТОВКА ДАННЫХ ОБУЧАЮЩЕЙ И ТЕСТОВОЙ ВЫБОРОК

В качестве исходных данных используется открытая часть стандартного набора MSTAR (Moving and Stationary Target Acquisition and Recognition) [20], включающая РЛИ десяти образцов военной техники с разрешением около 0,3 м, полученные по результатам съемки РЛС X-диапазона. Примеры РЛИ набора приведены на рисунке 1.

Рис. 1. Радиолокационные изображения объектов набора MSTAR и их фотографии

Из всех имеющихся изображений были сформированы обучающий, проверочный и тестовой наборы, характеристики которых приведены в таблице 1. Изображения обучающих и проверочных наборов получены при съемке с углом визирования 17 градусов, тестового набора – 15 градусов.

Таблица 1. Характеристики обучающих, проверочных и тестовых наборов

Общее количество изображений обучающего набора составляет 1923, проверочного – 891 и тестового – 2503.

Каждое исходное изображение представляет массив комплексных отсчетов , размерность которого для объектов разных классов является различной (минимальная составляет 128×128 отсчетов).

С целью исключения влияния фона местности на результаты классификации подготовка данных для обучения и тестирования включает этап вычисления маски отсчетов отметки объекта

(1)

где порог l определяется как значение n-го элемента упорядоченной по возрастанию векторизированной выборки отсчетов Iф(i – 1) Ni + j = |ij| из области РЛИ, не включающей отметку объекта и его тень; i ∈ [1; Nr], j ∈ [1; Nl]; Nr и Nl – количество строк и столбцов массива соответственно. В качестве такой области принимаются участки РЛИ с интервалами индексов i ∈ [1; Nr], j ∈ [1; Nф] и i ∈ [1; Nr], j ∈ [Nl Nф + 1; Nф]. Индекс n определяется как n = int{2pNr Nф}, где p ∈ [0; 1] соответствует вероятности превышения порога амплитудой фонового отсчета, т.е. ложной тревоги; int{x} – целая часть x.

Далее осуществляется поэлементное перемножение маски с исходным изображением, т.е. формируется комплексное изображение с нулевыми отсчетами в фоновой области

(2)

Так как при отсутствии фона исходная размерность изображений набора MSTAR от 128×128 отсчетов и более является избыточной, осуществляется ее понижение как

(3)

где i =и j = при N = 44.

В работе [8] уже проводилась оценка точности классификации зашумленных изображений объектов набора MSTAR сверточной сетью. Однако при этом собственно «зашумление» состояло в искажении некоторого количества пикселей изображения, выраженного в процентном соотношении к их общему количеству. Такой подход не учитывает специфику формирования преднамеренных помех и обработки принимаемых сигналов в РЛС [23].

В общем случае результатом обработки прицельной по частоте непрерывной гауссовской шумовой помехи является формирование помехового изображения [23]. При условии линейности квадратурного приема в РЛС помеховое изображение представляет собой массив гауссовских комплексных отсчетов, суммирующийся с соответствующими отсчетами комплексного сигнального изображения (т.е. результатом обработки собственно эхосигнала поверхности), что, в свою очередь, приводит к повышению среднего фонового уровня в пределах амплитудного РЛИ. При этом пространственные интервалы корреляции помехового и сигнального («незашумленного») изображений будут практически совпадать [23], и в пределах участка, сопоставимого по площади с отметкой отдельного объекта, его средний уровень можно считать постоянным.

С учетом этих соображений при подготовке обучающих данных помеховое изображение представляется в виде матрицы комплексных некоррелированных значений размерностью N × N, при этом элементы матриц действительной ηс и мнимой ηs частей распределены по гауссовскому закону с нулевым средним и единичной дисперсией.

Для обеспечения соответствия корреляционных характеристик сигнального и помехового изображений над матрицами и осуществляется процедура пространственной фильтрации

(4)

где

В результате (4) автокорреляционные пики помехового и сигнального изображений характеризуются практически экспоненциальной формой и одинаковой шириной, что обычно и имеет место в результате взвешенной обработки аддитивной смеси прицельной по частоте шумовой помехи и эхосигнала поверхности в процессе синтеза РЛИ [23].

Над полученной матрицей помехового изображения осуществляется операция приведения к единичной средней дисперсии

,

где где D{} – оценка дисперсии элементов матрицы после фильтрации (4), и далее она суммируется с сигнальной с последующим вычислением модуля, т.е.

(5)

где kn= ;
q – требуемое отношение помеха/сигнал РЛИ;
– средняя амплитуда ненулевых отсчетов сигнального РЛИ

На заключительном этапе изображение (5) преобразуется в целочисленный 8-битный формат в соответствии с правилом

(6)

где

;
Imax = max{I} и Imin = min{I} – максимальная и минимальная амплитуды отсчетов соответственно.

Перед подачей на вход ГСНС целочисленные значения в диапазоне [0;255] преобразуются в вещественные в диапазоне [0;1] путем деления на 255.

Примеры изображений наборов, сформированных при q = −20; −15; −10; −5; 0; 5; 10; 15; 20 дБ, приведены на рисунке 2.

Рис. 2. Примеры изображений объектов из наборов
с различным отношением помеха/сигнал

2. СТРУКТУРА И ГИПЕРПАРАМЕТРЫ ГЛУБОКОЙ СВЕРТОЧНОЙ НЕЙРОННОЙ СЕТИ, ПРОЦЕСС И РЕЗУЛЬТАТЫ ОБУЧЕНИЯ

Разработка и обучение сети осуществлялись с использованием фреймворка TensorFlow 2.0 и библиотеки Keras [24]. Архитектура сети (рис. 3) соответствует архитектуре VGG-типа [25] и включает последовательности четырех пар сверточных слоев (Convolution Layers) с одинаковыми ядрами 3×3 и единичным шагом свертки. После каждой пары включены слои подвыборок (MaxPooling) 2×2. Первая пара сверточных слоев включает по 32 фильтра, вторая, третья и четвертая – по 64, 128 и 256 соответственно. Полносвязный классификатор включает входной слой на 4096 входов и 256 выходов, слой 50-процентного прореживания (Dropout) и выходной слой с 10 выходами по числу классов объектов. В качестве функции активации сверточных слоев и входного слоя классификатора используется кусочно-линейная (ReLU). Количество настраиваемых параметров такой сети составляет 2’223’082.

Рис. 3. Архитектура ГСНС C-CNN

При обучении использован адаптивный алгоритм Adam с параметром скорости обучения 10–4 (по умолчанию это значение составляет 10–3), функцией потерь выступала перекрестная энтропия [24].

При выборе архитектуры осуществлялся перебор различных вариантов сочетания гиперпараметров (количества и размерности сверточных слоев, типов функций активации, включение слоев пакетной нормализации (BatchNormalization), слоев прореживания (Dropout) на различных этапах и др.), а также сравнение скорости и качества обучения при различных способах инициализации весов, типах и параметрах оптимизаторов (Adam, RMSProp, Adadelta). В целом улучшения точности классификации или существенного ускорения процесса обучения принятие этих мер не обеспечило.

Сеть с описанной архитектурой, для которой далее в работе принято обозначение C-CNN (Custom Convolutional Neural Network), на тестовом наборе продемонстрировала точность классификации 97,91 %, т.е. из 2503 изображений неверно распознала 52. Хотя такая точность является довольно высокой, на сегодняшний день существует значительное разнообразие более сложных архитектур, включающих bottleneck-слои (сети типа Inception), residual-блоки (сети типа ResNet), а также ряд других решений и их сочетаний.

Для проверки того, повлияет ли существенным образом выбор архитектуры сети на получаемые результаты, с использованием техники переноса обучения (Transfer Learning) [20][24] были дополнительно дообучены сети Xception [26] и MobileNetV1 [27]. Полносвязные классификаторы этих сетей были заменены на собственные, включающие входной слой на 512 выходов, слой 50-процентного прореживания и выходной слой на 10 выходов по числу классов. Параметр скорости обучения оптимизатора Adam составлял 10–5. С целью обеспечения равных условий обучения и корректности последующего сравнения результатов входные изображения перед подачей на вход сетей (C-CNN в том числе) приводились к размерности 128×128, так как она является минимальной для сети Xception. Сеть Xception на тестовом наборе показала точность 97,35 %, MobileNetV1 – 96,47 %.

Все сети (C-CNN, MobileNetV1, Xception) обучались на всех наборах данных по отдельности, оценка точности для сети проводилась на всех тестовых наборах, т.е. при всех отношениях помеха/сигнал. Максимальные достигнутые значения точности классификации приведены в таблице 2.

Таблица 2. Максимальные точности классификации
при различных отношениях помеха/сигнал
на обучающем и тестовом наборах, %

Продолжительность обучения с использованием GPU (GeForce GTX1660SUPER) для отдельной эпохи составила 7 с для сети C-CNN, 16 с – для MobileNetV1 и 47 с – для Xception. Общее количество эпох для сетей C-CNN и MobileNetV1 составляло 300, сети Xception – от 50 до 500 при различном отношении помеха/сигнал. Полное обучение на отдельном наборе заняло 35 и 80 мин (C-CNN и MobileNetV1), и от 40 мин до 6,5 ч (Xception).

Как видно из таблицы 2, максимальную точность классификации в беспомеховой обстановке показала сеть C-CNN (97,91 %), при отношениях помеха/сигнал –20, –15, –10, –5 дБ сеть Xception – 98,47, 98,15, 97,35 и 94,35 % соответственно. Для отношений помеха/сигнал 0 и 5 дБ наилучшую точность показала сеть C-CNN – 86,13 и 55,01 % соответственно.

Для анализа возможности расширения диапазона отношений помеха/сигнал, в пределах которого качество работы сети существенно не снижается, были сформированы обучающий, проверочный и тестовый наборы из 5769, 2673 и 7509 изображений соответственно. Наборы для объектов каждого класса включали случайное количество изображений с отношениями помеха/сигнал –40, –20, –15, –10, –5, 0 дБ.

Все три сети были обучены на этом наборе данных, и протестированы на всех остальных. Полученные результаты приведены в таблице 3.

Таблица 3. Максимальные точности классификации,
достигнутые сетями, обученными на расширенном наборе,
при различных отношениях помеха/сигнал на тестовых наборах, %

На рисунках 4–6 приведены зависимости, наглядно представляющие результаты, приведенные в таблицах 2 и 3. Типы линий (пунктирная, штрихпунктирная и т.д.) характеризуют отношения помеха/сигнал обучающих наборов изображений. Утолщенная сплошная линия соответствует точности классификации, достигнутой этой же сетью, но обученной на расширенном наборе. На рисунке 7 приведены зависимости, обобщающие полученные результаты и иллюстрирующие достигнутые максимальные точности классификации сетями, обученными на наборах как с фиксированными отношениями помеха/сигнал (незакрашенные маркеры), так и на расширенном наборе (закрашенные маркеры).

Из анализа зависимостей на рисунках 4–7 следует общий вывод о довольно низкой робастности сверточных нейросетей (зависимости имеют выраженные пики, смещающиеся вправо и уменьшающиеся по мере увеличения отношения помеха/сигнал). При этом ухудшение качества работы сетей наблюдается даже в тех случаях, когда отношение помеха/сигнал на тестовом наборе ниже, чем на обучающем. Это свидетельствует о том, что признаки распознавания, выделенные на зашумленных наборах, отличаются от признаков, выделяемых на изображениях без помехи. Существенному повышению устойчивости сети к изменению уровня помехи способствует обучение на наборах, включающих изображения с различными отношениями помеха/сигнал. Платой за это является незначительное (до единиц процентов) снижение точности классификации по сравнению с сетями, обученными на наборах с соответствующими фиксированными отношениями помеха/сигнал.

ВЫВОДЫ

Применение ГСНС в задаче классификации РЛИ объектов военной техники продемонстрировало высокую точность, максимальное достигнутое значение составило 97,91 %. Выбранная архитектура сети C-CNN соответствует уже классической на сегодняшний день архитектуре сети VGG-типа и обеспечивает получение оценок точности классификации, по-видимому, характерных для ГСНС вообще. Это также следует из результатов, полученных сетями MobileNetV1 и Xception.

Отмечено регуляризирующее действие слабой помехи, повышающее качество работы сети. Об этом свидетельствуют точности классификации сетью Xception, обученной на наборах с отношениями помеха/сигнал –20 и –15 дБ (98,45 и 98,15 % соответственно, табл. 2), превышающие наилучший результат при отсутствии помехи (97,91 %, сеть C-CNN).

Независимо от архитектуры сети, при отношении помеха/сигнал около 5 дБ максимальная точность классификации не превысила 55 %, а при 10 дБ не превысила 30 %. В то же время при отношении помеха/сигнал –5 дБ точность классификации составляет порядка 85 % и более. Отсюда следует вывод, что срыв распознавания (снижение точности классификации до 30 % и менее) типов объектов автои бронетехники в РЛС с субметровым разрешением требует создания помехи с уровнем как минимум на 5–10 дБ превышающим средний уровень отметок объектов. Полученные оценки целесообразно учитывать при обосновании требований к средствам радиопротиводействия авиационным и космическим РЛС видовой разведки, так как, судя по имеющейся тенденции, технологии глубокого обучения найдут широкое применение в задачах дешифрирования РЛИ уже в ближайшей перспективе.

Список литературы

1. Alzubaidi L., Zhang J., Humaidi A.J., AlDujaili A., Duan Y., Al-Shamma O., Santamaria J., Fadhel M.A., Al-Amidie M., Farhan L. Review of Deep Learning: Concepts, CNN Architectures, Challenges, Applications, Future Directions // Journal of Big Data. 2021. Vol. 8. (53). Iss. 1. pp. 1–74. DOI:10.1186/s40537-021-00444-8.

2. Rawat W., Wang Z. Deep Convolutional Neural Networks for Image Classification: A Comprehensive Review. Neural Computation. 2017. Vol. 29. P. 2352–2449. DOI:10.1162/NECO_a_00990

3. Созыкин А.В. Обзор методов обучения глубоких нейронных сетей // Вестник ЮУрГУ. Серия «Вычислительная математика и информатика». 2017. Т. 6. № 3. C. 28–59. DOI:10.14529/cmse170303

4. Zhu X., Montazeri S., Ali M., Hua Yu., Wang Yu., Mou L., Shi Yi., Xu F., Bamler R. Deep Learning Meets SAR. arXiv:2006.10027v2 [eess. IV] 5 Jan 2021.

5. Wang H., Chen S., Xu F., Jin Y.-Q. Application of Deep-Learning Algorithms to MSTAR Data. 2015 IEEE International Geoscience and Remote Sensing Symposium (IGARSS). 2015. P. 3743–3745. DOI:10.1109/IGARSS.2015.7326637.

6. Chen S., Wang H., Xu F., Jin Y.-Q. Target Classification Using the Deep Convolutional Networks for SAR Images. IEEE Transaction Geoscience and Remote Sensing. 2016. Vol. 54. No. 8. P. 4806–4817. DOI:10.1109/TGRS.2016.2551720

7. Anas H., Majdoulayne H., Chaimae A., Nabil S.M. Deep Learning for SAR Image Classification. Intelligent Systems and Applications. 2020. PP. 890–898. DOI:10.1007/978-3-030-29516-5_67

8. Chen S., Wang H. SAR Target Recognition Based on Deep Learning. 2014 International Conference on Data Science and Advanced Analytics (DSAA). 2014. P. 541–547. DOI:10.1109/DSAA.2014.7058124

9. Coman C., Thaens R. A Deep Learning SAR Target Classification Experiment on MSTAR Dataset. 2018 19th International Radar Symposium (IRS). 2018. P. 1–6. DOI:10.23919/IRS.2018.8448048

10. Furukawa H. Deep Learning for End-to-End Automatic Target Recognition from Synthetic Aperture Radar Imagery. arXiv:1801.08558v1 [cs. CV] 25 Jan 2018.

11. Profeta A., Rodriguez A., Clouse H.S. Convolutional Neural Networks for Synthetic Aperture Radar Classification. Proc. SPIE 9843, Algorithms for Synthetic Aperture Radar Imagery XXIII, 98430M (14 May 2016). DOI:10.1117/12.2225934

12. Wang Z., Xu X. Efficient deep convolutional neural networks using CReLU for ATR with limited SAR images. The Journal of Engineering. 2019. Vol. 2019. No. 21. P. 7615–7618. DOI:10.1049/joe.2019.0567

13. Wilmanski M., Kreucher C., Lauer J. Modern Approaches in Deep Learning for SAR ATR. Proc. SPIE 9843, Algorithms for Synthetic Aperture Radar Imagery XXIII, 98430N (14 May 2016). DOI:10.1117/12.2220290

14. Xie Yi., Dai W., Hu Z., Liu Yi., Li C., Pu X. A Novel Convolutional Neural Network Architecture for SAR Target Recognition. Journal of Sensors. 2019. DOI:10.1155/2019/1246548

15. Xinyan F., Weigang Z. Research on SAR Image Target Recognition Based on Convolutional Neural Network. Journal of Physics: Conference Series. 2019. Ser. 1213(2019) 042019. DOI:10.1088/1742-6596/1213/4/042019

16. Zhai J., Dong G., Chen F., Xie X., Qi C., Li L. A Deep Learning Fusion Recognition Method Based On SAR Image Data. 2018 International Conference on Identifiation, Information and Knowledge in the Internet of Things. Procedia Computer Science. 2019. Vol. 147. P. 533–541. DOI:10.1016/j.procs.2019.01.229

17. Биленко С. В., Чередеев К. Ю., Зограбян М. К. Перспективы использования глубоких нейронных сетей в радиолокации // Вопросы радиоэлектроники. 2017. № 1. C. 57–63.

18. Казачков Е. А., Матюгин С. Н., Попов И. В., Шаронов. В. В. Обнаружение и классификация малоразмерных объектов на изображениях, полученных радиолокационными станциями с синтезированной апертурой // Вестник Концерна ВКО «Алмаз – Антей». 2018. № 1. C. 93–99.

19. Gao F., Huang T., Sun J., Wang J., Hussain A., Yang E. A New Algorithm of SAR Image Target Recognition based on Improved Deep Convolutional Neural Network. Cognitive Computation. 2019. Vol. 11. P. 809–824. DOI:10.1007/s12559-018-9563-z

20. Malmgren-Hansen D., Engholm R., Østergaard Pedersen M. Training Convolutional Neural Networks for Translational Invariance on SAR ATR. In Proceedings of EUSAR 2016: 11th European Conference on Synthetic Aperture Radar. 2016. P. 459–462.

21. Бородинов А. А., Мясников В. В. Сравнение алгоритмов классификации радарных изображений при различных методах предобработки на примере базы MSTAR // Сборник трудов IV международной конференции и молодежной школы «Информационные технологии и нанотехнологии» (ИТНТ-2018) – Самара: Новая техника, 2018. С. 586–594.

22. Kechagias-Stamatis O., Aouf N. Automatic Target Recognition on Synthetic Aperture Radar Imagery: A Survey. URL: https://arxiv.org/abs/2007.02106

23. Купряшкин И. Ф., Лихачев В. П. Космическая радиолокационная съемка земной поверхности в условиях помех. Воронеж: Научная книга, 2014. 460 с.

24. Николенко С., Кадурин А., Архангельская Е. Глубокое обучение. СПб: Питер, 2018. 480 с.

25. Simonyan K., Zisserman A. Very Deep Convolutional Networks For Large-Scale Image Recognition. arXiv:1409.1556v6 [cs. CV] 10 Apr 2015.

26. Chollet F. Xception: Deep Learning with Depthwise Separable Convolutions. arXiv:1610.02357v3 [cs. CV] 4 Apr 2017.

27. Howard A.G., Zhu M., Chen B., Kalenichenko D. MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications. arXiv: 1704.04861v1 [cs. CV] 17 Apr 2017.


Об авторах

И. Ф. Купряшкин
Военный учебно-научный центр Военно-воздушных сил «Военно-воздушная академия имени профессора Н.Е. Жуковского и Ю.А. Гагарина»
Россия

Купряшкин Иван Федорович – доктор технических наук, доцент, начальник кафедры боевого применения средств радиоэлектронной борьбы (с воздушно-космическими системами управления и наводящимся оружием). Область научных интересов: радиопротиводействие радиолокационным системам.

Воронеж



А. С. Мазин
Военный учебно-научный центр Военно-воздушных сил «Военно-воздушная академия имени профессора Н.Е. Жуковского и Ю.А. Гагарина»
Россия

Мазин Антон Сергеевич – адъюнкт кафедры боевого применения средств радиоэлектронной борьбы (с воздушно-космическими системами управления и наводящимся оружием). Область научных интересов: моделирование процессов преднамеренного противодействия радиолокационным системам.

Воронеж



Рецензия

Для цитирования:


Купряшкин И.Ф., Мазин А.С. Классификация объектов военной техники с использованием сверточной нейронной сети на радиолокационных изображениях, сформированных в условиях шумовых помех. Вестник Концерна ВКО «Алмаз – Антей». 2022;(1):71-81. https://doi.org/10.38013/2542-0542-2022-1-71-81

For citation:


Kupryashkin I.F., Mazin A.S. Classification of military equipment targets on radar images generated in noise interference conditions using a convolutional neural network. Journal of «Almaz – Antey» Air and Space Defence Corporation. 2022;(1):71-81. https://doi.org/10.38013/2542-0542-2022-1-71-81

Просмотров: 571


Creative Commons License
Контент доступен под лицензией Creative Commons Attribution 4.0 License.


ISSN 2542-0542 (Print)