본문 바로가기
과학기술

드론 영상 기반 AI 데이터셋 시범 구축 및 위성영상 적용 연구 계획서

by 리서치가이 2025. 12. 6.

1. 연구의 개요 및 필요성

1.1 연구의 정의

본 연구는 고해상도 위성 영상(Satellite Imagery)의 획득 제한성과 학습 데이터 부족 문제를 극복하기 위해, 접근성이 용이한 드론(UAV)을 활용하여 지상 이동체(Ground Vehicles) 식별을 위한 인공지능(AI) 학습용 데이터셋을 시범 구축하고, 이를 실제 위성 영상 분석에 적용하는 교차 도메인(Cross-Domain) 기술 연구이다. 구체적으로는 연구기간 7개월, 예산 6천만 원의 가용 자원 내에서 KOMPSAT-3/3A 등 국산 고해상도 위성의 특성을 모사한 드론 촬영 기법을 정립하고, 획득된 데이터를 바탕으로 도메인 적응(Domain Adaptation) 및 초해상화(Super-Resolution) 기술이 적용된 객체 탐지 모델을 개발하여, 최종적으로 위성 영상 내 소형 차량 표적의 탐지율을 향상시키는 것을 목표로 한다.1

 

 

1.2 연구의 배경 및 필요성

1.2.1 위성 영상 분석의 데이터 기근(Data Scarcity) 문제

 

현대 국방 감시정찰(ISR) 및 재난 관제 분야에서 위성 영상의 중요성은 날로 증대되고 있다. 특히 한반도와 같은 관심 지역을 주기적으로 감시하는 아리랑 3호(KOMPSAT-3) 및 3A호(KOMPSAT-3A)와 같은 고해상도 광학 위성은 핵심 자산으로 분류된다.2 그러나 위성 영상 기반의 AI 모델 개발은 심각한 데이터 부족 문제에 직면해 있다.

 

첫째, 군사적으로 유의미한 표적(특정 전차, 이동식 미사일 발사대, 전술 차량 등)이 포함된 고해상도 위성 영상은 보안상의 이유로 공개되지 않거나 획득 자체가 매우 어렵다.

 

둘째, 위성은 궤도 특성상 특정 지역을 촬영하는 주기가(Revisit Time) 제한적이며, 구름이나 대기 상태에 따라 영상의 품질이 균일하지 않다.1

 

셋째, 기존의 공개된 데이터셋(xView, DOTA 등)은 대부분 해외 지역을 배경으로 하거나, 특정 센서에 편중되어 있어 국내 지형 및 국산 위성 센서(AEISS 등) 특성에 최적화된 모델을 학습시키는 데 한계가 있다.5

 

1.2.2 Sim-to-Real: 드론을 활용한 데이터 증강의 필요성

 

이러한 데이터 부족 문제를 해결하기 위한 대안으로 'Sim-to-Real' 방법론이 대두되고 있다.3 이는 가상 환경(Simulation)이나 통제 가능한 대리 환경에서 획득한 데이터로 모델을 학습시키고, 이를 실제 환경(Real World)에 적용하는 기술이다. 드론은 위성에 비해 운용 비용이 획기적으로 낮고, 원하는 시점과 장소에서 데이터를 대량으로 수집할 수 있다는 장점이 있다. 또한, 비행 고도 조절을 통해 위성의 지상 표본 거리(GSD, Ground Sample Distance)를 물리적으로 모사할 수 있다.8 따라서 드론으로 획득한 영상을 위성 영상의 특성에 맞게 변환(Style Transfer)하여 학습 데이터로 활용한다면, 위성 영상 데이터 확보의 난이도와 비용 문제를 획기적으로 개선할 수 있다.

 

1.2.3 교차 도메인 적응 기술의 중요성

 

드론 영상과 위성 영상은 근본적으로 서로 다른 도메인 특성을 가진다. 드론은 저고도(100~500m)에서 촬영하므로 대기 효과가 적고 객체의 디테일이 살아있는 반면, 위성은 수백 km 상공(KOMPSAT-3의 경우 685km)에서 촬영하므로 대기 산란, 센서 노이즈, 그리고 거의 수직에 가까운(Nadir) 시야각을 가진다.1 이러한 도메인 격차(Domain Gap)로 인해 드론 데이터로만 학습된 AI는 위성 영상에서 성능이 급격히 저하된다. 이를 극복하기 위해 CycleGAN과 같은 생성적 적대 신경망(GAN)을 활용하여 드론 영상을 위성 영상 풍(Style)으로 변환하거나, 초해상화(Super-Resolution)를 통해 위성 영상의 품질을 드론 수준으로 복원하는 기술적 접근이 필수적이다.11

 

1.3 연구 목표

본 과제는 제한된 기간과 예산 내에서 실효성 있는 기술 실증(PoC)을 수행하기 위해 다음과 같은 구체적인 목표를 설정한다.

 

구분 목표 항목 세부 지표 및 목표치 비고
데이터 확보 지상 이동체 드론 영상 - GSD 0.5~0.7m 급으로 변환 가능한 원본 영상 확보

- 차량(소형/대형), 특수목적차량 등 3종 이상 클래스

- 총 10,000 인스턴스 이상의 OBB 라벨링 데이터셋 구축
KOMPSAT 해상도 기준 1
모델 개발 객체 탐지 AI 모델 - 소형 객체 특화 모델 (YOLOv8-OBB 또는 동급 이상)

- 위성 영상 적용 시 mAP(0.5) 0.60 이상 달성
베이스라인 대비 +10%p 향상 목표
핵심 기술 도메인 적응 및 초해상화 - CycleGAN 기반 Drone-to-Satellite 변환 모듈 구현

- SRGAN/SwinIR 기반 2배(x2) 해상도 복원 적용
시각적 유사도(LPIPS) 개선 13
실증 검증 위성 영상 적용 - KOMPSAT-3/3A 아카이브 영상 대상 탐지 테스트 수행

- NIIRS 5~6 등급 수준의 차량 식별 능력 검증
14 기준

 

2. 관련 기술 현황 및 분석

2.1 위성 영상 객체 탐지 기술 동향

2.1.1 소형 객체 탐지(Small Object Detection)의 난제

 

위성 영상에서의 객체 탐지는 일반적인 자연 영상(Natural Image)과는 다른 독특한 어려움을 가진다. 위성 영상은 수 억 화소(예: 30,000 x 30,000 픽셀)에 달하는 광범위한 영역을 커버하지만, 탐지해야 할 차량과 같은 객체는 불과 수십 픽셀(10~20 pixel) 크기에 불과하다.11 이는 전체 영상 대비 객체가 차지하는 비율이 극히 낮은 'Extreme Scale Imbalance' 문제를 야기한다. 최신 연구들은 이를 해결하기 위해 입력 영상을 일정한 크기의 패치(Patch)로 자르고 겹쳐서(Overlap) 추론하는 SAHI(Slicing Aided Hyper Inference) 기법이나, 특성 맵(Feature Map)의 해상도를 유지하기 위한 다중 스케일(Multi-scale) 네트워크 구조를 채택하고 있다.15

 

2.1.2 회전된 객체 탐지(Oriented Object Detection)

 

위성 및 항공 영상은 촬영 각도와 지상 물체의 배치에 따라 객체가 임의의 방향으로 회전되어 나타난다. 기존의 수평 경계 박스(HBB, Horizontal Bounding Box) 방식은 회전된 좁고 긴 객체(예: 차량, 선박)를 탐지할 때 배경 영역을 과도하게 포함하거나 인접한 객체와 박스가 겹치는 문제가 발생한다. 이를 해결하기 위해 최근 항공/위성 분야에서는 객체의 회전 각도까지 예측하는 회전 경계 박스(OBB, Oriented Bounding Box) 방식이 표준으로 자리 잡고 있다. 대표적인 데이터셋인 DOTA(Dataset for Object deTection in Aerial images) 역시 OBB 주석을 제공하며, YOLOv8-OBB, Rotated Faster R-CNN 등의 모델이 이 분야에서 우수한 성능을 보이고 있다.17

 

2.2 도메인 적응(Domain Adaptation) 및 데이터 증강

2.2.1 CycleGAN을 이용한 도메인 변환

 

서로 다른 도메인(드론 vs 위성) 간의 데이터 분포 차이를 줄이기 위해, 짝이 맞지 않는(Unpaired) 데이터 간의 변환이 가능한 CycleGAN이 널리 사용된다. CycleGAN은 두 개의 생성자(Generator)와 두 개의 판별자(Discriminator)를 통해 도메인 A의 이미지를 도메인 B로 변환했다가 다시 A로 복원했을 때의 손실(Cycle Consistency Loss)을 최소화하는 방식으로 학습한다.19 이를 통해 드론 영상의 선명한 객체 특징을 유지하면서 위성 영상의 흐릿함, 노이즈, 색감(Color Tone)을 입힌 가상의 위성 영상을 생성하여 학습 데이터로 활용할 수 있다. 최근 연구에서는 이 과정에서 객체의 형태가 왜곡되는 것을 방지하기 위해 형태 보존 손실(Shape-Preserving Loss)을 추가하거나, 전경(Foreground)과 배경(Background)을 분리하여 변환하는 기법들이 제안되고 있다.21

 

2.2.2 초해상화(Super-Resolution) 기술의 적용

 

위성 영상의 해상도 한계(GSD 0.5~0.7m)를 극복하기 위해 딥러닝 기반의 초해상화 기술이 접목되고 있다. SRGAN, ESRGAN, SwinIR 등의 모델은 저해상도 이미지에서 고주파 성분(High-frequency details)을 복원하여 엣지를 선명하게 하고 식별력을 높인다. 특히 소형 객체 탐지 전처리 단계에서 초해상화를 적용할 경우, 객체의 픽셀 수가 증가하고 특징이 뚜렷해져 탐지 성능(mAP)이 유의미하게 향상된다는 연구 결과가 보고되고 있다.11 이는 물리적인 센서 교체 없이 소프트웨어적으로 NIIRS 등급을 0.5~1단계 상승시키는 효과를 기대할 수 있다.

 

2.3 국내외 데이터셋 및 정책 동향

2.3.1 공개 데이터셋 현황

  • xView: 미 국방부 DIU(Defense Innovation Unit)가 주관하여 구축한 데이터셋으로, WorldView-3 위성(GSD 0.3m)을 기반으로 60개 클래스, 100만 개 이상의 객체를 포함한다. 소형 객체 및 희귀 클래스 탐지에 중점을 두고 있다.6
  • DOTA v2.0: 항공 영상 기반의 대규모 데이터셋으로, OBB 라벨링을 제공하며 다양한 해상도와 센서 소스를 포함한다.17
  • KFGOD: 최근 국내 연구진에 의해 공개된 KOMPSAT-3/3A 기반의 세밀 객체 탐지(Fine-Grained Object Detection) 데이터셋으로, 본 연구의 타겟 위성과 동일한 센서 특성을 가지므로 벤치마킹 및 성능 검증에 매우 유용한 참조 자원이다.5

 

2.3.2 국방 AI 정책 및 시장

 

국방부는 '국방혁신 4.0'의 일환으로 AI 기반의 유무인 복합전투체계(MUM-T) 구축과 초소형 위성군 운용을 추진하고 있다.25 특히 2025년 국방 AI 추진계획에서는 양질의 데이터 확보와 관리체계 구축을 최우선 과제로 선정하였으며, 드론과 위성을 연계한 다계층 감시정찰 네트워크의 중요성을 강조하고 있다.27 본 연구는 이러한 국가적 기술 수요에 부합하며, 저비용 고효율의 데이터 구축 솔루션을 제시한다는 점에서 정책적 시의성이 높다.

 

3. 연구 개발 수행 내용 및 방법

본 연구는 총 4단계(데이터 획득 설계 $\rightarrow$ 데이터 구축 및 전처리 $\rightarrow$ AI 모델 개발 $\rightarrow$ 실증 및 검증)로 진행되며, 각 단계별 구체적인 수행 방법은 다음과 같다.

 

3.1 [단계 1] 드론 영상 획득 설계 및 데이터 수집 (M1~M2)

3.1.1 GSD 역산출 기반 비행 고도 설계

 

AI 모델이 위성 영상에서 올바르게 작동하려면 학습 데이터인 드론 영상이 위성과 유사한 공간 해상도(Spatial Resolution)를 가져야 한다. KOMPSAT-3의 GSD는 0.7m, KOMPSAT-3A는 0.55m이다.1 그러나 드론으로 GSD 0.5m를 촬영하려면 수 km 상공을 비행해야 하므로 항공안전법상(고도 150m 제한) 불가능하며, 센서 크기의 한계로 인해 광학적 특성이 달라진다. 따라서 본 연구에서는 "고해상도 촬영 후 다운샘플링(Down-sampling)" 전략을 채택한다.

 

  1. 드론 제원 (예시: DJI Mavic 3 Enterprise):
  • 센서: 4/3인치 CMOS (17.3 x 13.0 mm)
  • 초점거리(Focal Length): 12.29 mm (35mm 환산 24mm)
  • 이미지 해상도: 5280 x 3956 pixels
  1. GSD 계산 공식:

    $$GSD = \frac{Sensor\_Width \times Flight\_Height}{Focal\_Length \times Image\_Width}$$
    8
  2. 촬영 설계:
  • 법적 허용 고도인 100~150m에서 비행 시, Mavic 3의 GSD는 약 2.5~3.7cm/pixel 수준이다.30
  • 이를 위성급인 50cm/pixel로 변환하기 위해서는 약 1/13 ~ 1/20 비율로 다운샘플링을 수행해야 한다.
  • 단순한 다운샘플링은 앨리어싱(Aliasing)을 유발하므로, 가우시안 블러(Gaussian Blur)를 적용한 후 리사이징하는 방식을 적용하여 위성 센서의 PSF(Point Spread Function) 효과를 모사한다.31

 

3.1.2 데이터 수집 시나리오

  • 촬영 장소:
  • 도심지(건물, 도로, 차량 밀집), 교외(논밭, 도로), 훈련장(비포장 도로) 등 다양한 배경(Clutter) 환경 선정.
  • 지상 이동체의 식별이 용이한 개활지 위주로 선정하되, 나무나 건물 그림자에 의한 가림(Occlusion) 현상이 포함된 지역도 포함하여 모델의 강건성 확보.
  • 촬영 대상(Target):
  • NATO 표준 차량 분류 체계 및 NIIRS 기준을 참고하여 식별 가능한 크기의 차량 선정.32
  • 소형 차량 (Small Vehicle): 세단, SUV 등 (약 4.5m x 1.8m)
  • 대형 차량 (Large Vehicle): 버스, 트럭, 트레일러 (약 10m 이상)
  • 특수 차량 (Specialized): 굴착기, 레미콘 등 형태적 특징이 뚜렷한 차량.
  • 비행 패턴:
  • Nadir(수직) 촬영: 위성의 기본 촬영 모드.
  • Off-Nadir(경사) 촬영: 위성의 기동성(Body Pointing)을 고려하여 Roll/Pitch $\pm30^\circ$ 각도에서의 촬영 데이터 확보.4 이를 통해 차량의 측면 정보가 포함된 데이터를 수집하여 3차원적 특징 학습을 유도한다.

 

3.2 [단계 2] 데이터셋 구축 및 전처리 (M2~M4)

3.2.1 위성 모사 전처리 파이프라인 (Satellite Simulation Pipeline)

 

수집된 드론 원본 영상(Raw Data)을 위성 영상 특성에 맞게 가공하는 단계이다.

 

  1. 기하학적 변환 (Geometric Transformation):
  • 정사보정(Orthorectification): 드론 영상의 렌즈 왜곡을 보정하고 지면과 수직이 되도록 투영 변환.
  1. 해상도 변환 (Resolution Adaptation):
  • GSD 2~3cm 원본을 타겟 GSD(0.5m, 0.7m)로 다운샘플링.
  • Bicubic Interpolation 및 Anti-aliasing 필터 적용.35
  1. 대기 효과 시뮬레이션 (Atmospheric Simulation):
  • 위성 영상 특유의 뿌연 느낌(Haze)과 대기 산란 효과를 추가하기 위해, 밝기 히스토그램을 조정하고 저주파 노이즈를 주입한다.
  1. 타일링 (Tiling):
  • 거대한 위성 영상을 처리하는 상황을 가정하여, 1024x1024 픽셀 크기의 패치(Patch)로 분할하고, 20%의 중첩(Overlap) 구간을 두어 경계면 객체 절단을 방지한다.

 

3.2.2 데이터 라벨링 (Annotation)

  • OBB(Oriented Bounding Box) 적용:
  • 차량과 같이 종횡비(Aspect Ratio)가 큰 객체들이 밀집 주차되어 있거나 회전되어 있는 경우, 수평 박스(HBB)는 중첩 문제(IoU 증가)가 심각하다.
  • 따라서 객체의 중심점$(cx, cy)$, 너비$(w)$, 높이$(h)$, 회전각$(\theta)$ 5가지 파라미터를 사용하는 OBB 방식으로 라벨링을 수행한다.5
  • 클래스 정의:
  • 본 시범 연구에서는 데이터 불균형을 고려하여 3개 대분류로 단순화한다.
  • Class 0: Small Vehicle (승용차, 소형 트럭)
  • Class 1: Large Vehicle (버스, 대형 트럭, 컨테이너 트럭)
  • Class 2: Engineering/Special (중장비, 특수목적차량)
  • 검수(QA): 라벨링 툴(CVAT 등)을 활용하며, 교차 검증을 통해 라벨링 정확도 95% 이상을 확보한다.

 

3.3 [단계 3] AI 모델 개발 및 고도화 (M4~M6)

3.3.1 CycleGAN 기반 Domain Adaptation

 

드론 영상(Source)을 위성 영상(Target) 스타일로 변환하는 생성 모델을 구축한다.

  • 아키텍처: ResNet 기반의 Generator와 PatchGAN 기반의 Discriminator 사용.20
  • 학습 데이터:
  • Domain A: 드론 촬영 후 다운샘플링된 이미지.
  • Domain B: KOMPSAT-3/3A 샘플 이미지 (객체가 없어도 무관, 텍스처 학습용).
  • Loss Function:
  • Adversarial Loss: 위성 영상처럼 보이게 만듦.
  • Cycle Consistency Loss: 변환된 이미지를 다시 원복했을 때 원본과 같아야 함 (객체 형태 보존).
  • Identity Loss: 위성 이미지를 넣었을 때는 변환하지 않음 (색감 보존).

 

3.3.2 Super-Resolution (SR) 모듈 통합

 

위성 영상의 낮은 해상도를 보완하기 위해 탐지 모델 앞단에 SR 모듈을 배치한다.

  • 모델 선정: SwinIR (Swin Transformer for Image Restoration) 또는 Real-ESRGAN. 트랜스포머 기반 모델이 전역적인 문맥 정보를 잘 파악하여 복원 성능이 우수하다.11
  • 학습 전략:
  • 드론 고해상도 영상을 Ground Truth(HR), 다운샘플링된 영상을 Input(LR)으로 하여 x2, x4 스케일 업스케일링을 학습시킨다.
  • 생성된 SR 이미지를 객체 탐지 모델의 입력으로 사용한다.

 

3.3.3 객체 탐지 모델 (YOLOv8-OBB)

  • 모델 선정: 실시간성과 정확도가 검증된 YOLOv8의 OBB 버전을 베이스라인으로 채택한다. YOLOv8은 Anchor-free 방식이며, P2~P5 다중 스케일 Feature Pyramid Network(FPN)를 사용하여 다양한 크기의 객체를 효과적으로 탐지한다.
  • SAHI(Slicing Aided Hyper Inference) 통합:
  • 추론(Inference) 단계에서 전체 위성 이미지를 그대로 넣으면 소형 객체 정보가 소실된다.
  • 이미지를 640x640 등의 윈도우로 슬라이딩하며 추론하고, 결과를 다시 원본 좌표계로 매핑하는 SAHI 기법을 적용하여 소형 객체 탐지율(Small Object Recall)을 극대화한다.15

 

3.4 [단계 4] 실증 및 성능 평가 (M6~M7)

3.4.1 테스트 시나리오 및 데이터

  • Test Set 1 (Internal): 학습에 사용되지 않은 드론 데이터 (Simulated Satellite).
  • Test Set 2 (External): 실제 KOMPSAT-3/3A 영상 (SIIS 또는 KARI 제공 샘플, 혹은 구매). 실제 위성 영상에서의 성능이 본 연구의 핵심 평가지표이다.5

3.4.2 평가 지표 (Metrics)

  • mAP50 (mean Average Precision @ IoU 0.5): 객체 탐지 성능의 표준 지표.
  • mAP50-95: 보다 정밀한 위치 정확도를 평가하는 지표 (OBB의 각도 정확도 포함).
  • F1-Score: 정밀도(Precision)와 재현율(Recall)의 조화 평균.
  • Inference Time: $km^2$ 당 처리 속도.
  • NIIRS 등급 향상 효과: SR 적용 전후의 차량 식별 가능 여부를 정성적으로 평가 (판독관 또는 NIIRS 기준표 대조).14

 

4. 연구 추진 일정

총 7개월의 연구 기간 동안 애자일(Agile) 방식의 개발 프로세스를 적용하여, 데이터 구축과 모델 개발을 병행하고 피드백을 빠르게 반영한다.

 

단계 주요 내용 M1 M2 M3 M4 M5 M6 M7 비고
준비 자료조사 및 세부계획 수립             요구사항 분석
획득 드론 촬영 및 영상 확보           10회 비행 예정
구축 데이터 전처리 및 라벨링           10,000장 확보
개발 CycleGAN 도메인 적응 모델           Sim-to-Real
개발 객체 탐지/SR 모델 학습           모델 최적화
통합 시스템 통합 및 튜닝           SAHI 적용
검증 위성 영상 테스트 및 평가           최종 성능 도출
보고 최종 보고서 작성             성과물 제출

 

 

5. 연구 추진 전략 및 체계

5.1 추진 전략 (Strategy)

  1. Open Source & Transfer Learning 활용: 제한된 예산과 기간을 고려하여, 처음부터 모델을 설계(Scratch)하기보다 성능이 검증된 최신 오픈소스 모델(YOLOv8, SwinIR)을 적극 활용하고, 본 과제의 특수 데이터셋으로 미세 조정(Fine-tuning)하는 전략을 취한다.
  2. 데이터 중심(Data-Centric) AI 개발: 모델 구조 변경보다는 데이터의 품질(Quality)과 다양성(Diversity) 확보에 집중한다. 특히 CycleGAN을 통한 사실적인 위성 모사 데이터 생성에 연구 역량을 집중하여 'Sim-to-Real' 효과를 입증한다.
  3. 단계적 검증: 1차적으로 드론 다운샘플링 데이터로 성능을 확보한 후, 2차적으로 공개 위성 데이터(DOTA 등), 최종적으로 구매한 KOMPSAT 영상에 적용하여 단계적으로 리스크를 관리한다.

5.2 연구 수행 조직

  • 총괄 책임자 (PM): 프로젝트 관리 및 기술 자문. 국방 AI 센터 및 관련 기관과의 협력 채널 가동.
  • AI 개발팀: 모델링, 알고리즘 구현, 학습 및 평가 담당.
  • 데이터팀: 촬영 계획 수립, 드론 운용(또는 업체 관리), 데이터 정제 및 가공 담당.

 

6. 기대 효과 및 활용 방안

6.1 기술적 파급효과

  • 위성 AI 데이터 구축의 새로운 패러다임 제시: 고비용/저접근성의 위성 영상 대신 드론을 활용한 데이터셋 구축 방법론을 정립함으로써, 향후 군사/민간 분야의 AI 학습 데이터 확보 비용을 획기적으로 절감할 수 있다.
  • 국산 위성 최적화 기술 확보: 외산 데이터(WorldView 등)에 의존하지 않고, 아리랑 위성(KOMPSAT) 특성에 맞춘 초해상화 및 탐지 모델을 확보하여 국내 위성 영상 활용 산업의 기술 경쟁력을 제고한다.2
  • 소형 객체 탐지 성능 향상: 초해상화와 객체 탐지를 결합한 파이프라인을 통해, 기존에 식별이 어려웠던 소형 표적(NIIRS 5~6 구간)에 대한 탐지 한계를 극복하는 원천 기술을 확보한다.

 

6.2 군사적/사회적 기여

  • 감시정찰(ISR) 자동화 및 효율화: 드론봇 전투체계(Army Tiger 4.0) 및 초소형 위성 체계와 연동하여, 적의 이동식 발사대(TEL)나 침투 차량을 자동으로 탐지하고 식별하는 조기 경보 시스템의 핵심 알고리즘으로 활용 가능하다.25
  • 재난 및 안전 관리: 산불 감시, 해상 조난 선박 탐지 등 광역 감시가 필요한 재난 상황에서 신속하고 정밀한 상황 파악을 지원하여 골든타임을 확보하는 데 기여한다.

 

6.3 활용 계획 및 후속 연구

  • 본 시범 연구의 결과물(데이터셋, 모델 소스코드, 보고서)을 바탕으로 국방과학연구소(ADD)나 한국항공우주연구원(KARI)의 대형 R&D 과제(예: 군집 위성 영상 처리 시스템 개발) 제안을 추진한다.
  • 구축된 드론 기반 위성 모사 데이터셋을 비식별화 처리 후 일부 공개(Open Dataset)하여, 국내 원격탐사(Remote Sensing) AI 연구 생태계 활성화에 기여한다.
  • 후속 연구로 가시광(RGB) 대역을 넘어 적외선(IR), SAR(합성개구레이더) 등 다분광/다종 센서 융합 탐지 기술로 확장할 계획이다.

 

 

참고 문헌 및 데이터 출처 요약

본 계획서는 KOMPSAT-3/3A 위성 제원 1, 드론 GSD 산출 공식 8, 최신 객체 탐지 및 초해상화 기술 동향 11, 2024년 SW 기술자 노임 단가 및 드론 촬영 견적 37 등 신뢰할 수 있는 자료를 바탕으로 작성되었다.

 

참고 자료

  1. KOMPSAT-3 (Korea Multi-Purpose Satellite-3) / Arirang-3 - eoPortal, 12월 6, 2025에 액세스, https://www.eoportal.org/satellite-missions/kompsat-3
  2. New sensors benchmark report on KOMPSAT-3A - JRC Publications Repository, 12월 6, 2025에 액세스, https://publications.jrc.ec.europa.eu/repository/bitstream/JRC112656/kj-na-29331-en-n_new.pdf
  3. Sim-to-Real Deep Reinforcement Learning for Safe End-to-End Planning of Aerial Robots, 12월 6, 2025에 액세스, https://www.mdpi.com/2218-6581/11/5/109
  4. KOMPSAT-3 Satellite Specifications - Geopera, 12월 6, 2025에 액세스, https://geopera.com/sensors/kompsat-3
  5. KFGOD: A Fine-Grained Object Detection Dataset in KOMPSAT Satellite Imagery, 12월 6, 2025에 액세스, https://www.researchgate.net/publication/397812908_KFGOD_A_Fine-Grained_Object_Detection_Dataset_in_KOMPSAT_Satellite_Imagery
  6. xView Dataset - Ultralytics YOLO Docs, 12월 6, 2025에 액세스, https://docs.ultralytics.com/datasets/detect/xview/
  7. [2504.07694] Sim-to-Real Transfer in Reinforcement Learning for Maneuver Control of a Variable-Pitch MAV - arXiv, 12월 6, 2025에 액세스, https://arxiv.org/abs/2504.07694
  8. Ground Sample Distance | DJI Enterprise - Insights, 12월 6, 2025에 액세스, https://enterprise-insights.dji.com/blog/ground-sample-distance
  9. How to calculate Ground Sampling Distance (GSD) - Inertial Labs, 12월 6, 2025에 액세스, https://inertiallabs.com/how-to-calculate-ground-sampling-distance/
  10. A Survey of Object Detection for UAVs Based on Deep Learning - MDPI, 12월 6, 2025에 액세스, https://www.mdpi.com/2072-4292/16/1/149
  11. Tiny Object Detection in Super-Resolved Sentinel-2 Imagery - ISPRS - The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, 12월 6, 2025에 액세스, https://isprs-archives.copernicus.org/articles/XLVIII-M-6-2025/61/2025/isprs-archives-XLVIII-M-6-2025-61-2025.pdf
  12. HeatDA: Heat Domain Adaptation model with transfer learning and... | Download Scientific Diagram - ResearchGate, 12월 6, 2025에 액세스, https://www.researchgate.net/figure/HeatDA-Heat-Domain-Adaptation-model-with-transfer-learning-and-CycleGAN-translated-image_fig4_376378079
  13. Landsat-8 to Sentinel-2 Satellite Imagery Super-Resolution-Based Multiscale Dilated Transformer Generative Adversarial Networks - MDPI, 12월 6, 2025에 액세스, https://www.mdpi.com/2072-4292/15/22/5272
  14. IMINT - NIIRS National Image Interpretability Rating Scales, 12월 6, 2025에 액세스, https://irp.fas.org/imint/niirs.htm
  15. A New Approach for Super Resolution Object Detection Using an Image Slicing Algorithm and the Segment Anything Model - MDPI, 12월 6, 2025에 액세스, https://www.mdpi.com/1424-8220/24/14/4526
  16. Small-Object Detection in Remote Sensing Images With Super-Resolution Perception, 12월 6, 2025에 액세스, https://www.researchgate.net/publication/383681171_Small-Object_Detection_in_Remote_Sensing_Images_with_Super_Resolution_Perception
  17. DOTA - Dataset Ninja, 12월 6, 2025에 액세스, https://datasetninja.com/dota
  18. DOTA Dataset with OBB - Ultralytics YOLO Docs, 12월 6, 2025에 액세스, https://docs.ultralytics.com/datasets/obb/dota-v2/
  19. CycleGAN/cyclegan.ipynb at master · pkmital/CycleGAN - GitHub, 12월 6, 2025에 액세스, https://github.com/pkmital/CycleGAN/blob/master/cyclegan.ipynb
  20. junyanz/pytorch-CycleGAN-and-pix2pix: Image-to-Image Translation in PyTorch - GitHub, 12월 6, 2025에 액세스, https://github.com/junyanz/pytorch-CycleGAN-and-pix2pix
  21. DE-CycleGAN: An Object Enhancement Network for Weak Vehicle Detection in Satellite Images - IEEE Xplore, 12월 6, 2025에 액세스, https://ieeexplore.ieee.org/iel7/4609443/9314330/09363513.pdf
  22. The Effects of Super-Resolution on Object Detection Performance in Satellite Imagery - CVF Open Access, 12월 6, 2025에 액세스, https://openaccess.thecvf.com/content_CVPRW_2019/papers/EarthVision/Shermeyer_The_Effects_of_Super-Resolution_on_Object_Detection_Performance_in_Satellite_CVPRW_2019_paper.pdf
  23. [1802.07856] xView: Objects in Context in Overhead Imagery - arXiv, 12월 6, 2025에 액세스, https://arxiv.org/abs/1802.07856
  24. KFGOD: A Fine-Grained Object Detection Dataset in KOMPSAT Satellite Imagery - MDPI, 12월 6, 2025에 액세스, https://www.mdpi.com/2072-4292/17/22/3774
  25. 인공지능의 군사적 활용: 글로벌 트렌드가 한국에 주는 함의 | 국내연구자료 | KDI 경제교육, 12월 6, 2025에 액세스, https://eiec.kdi.re.kr/policy/domesticView.do?ac=0000194221
  26. '혁신·협력' 키워드로 미래 전장을 그리다 국방인공지능 추진점검 회의로 '국방 AI' 가속, 12월 6, 2025에 액세스, https://www.korea.kr/briefing/pressReleaseView.do?newsId=156728915
  27. AI 첨단국방 구현한다…국방부, 추진전략 이행 논의, 12월 6, 2025에 액세스, https://www.ddaily.co.kr/page/view/2025120211145684136
  28. 국방부, ‘국방데이터·인공지능위원회’ 개최, 12월 6, 2025에 액세스, https://www.shinailbo.co.kr/news/articleView.html?idxno=2156191
  29. GSD Calculator – Ground Sample Distance, 12월 6, 2025에 액세스, https://www.omnicalculator.com/other/ground-sample-distance
  30. Ground Sampling Distance Calculator - SitePhotos, 12월 6, 2025에 액세스, https://sitephotos.com/resources/gsd-calculator
  31. Correct resampling method to simulate lower resolution satellite data? - GIS StackExchange, 12월 6, 2025에 액세스, https://gis.stackexchange.com/questions/296854/correct-resampling-method-to-simulate-lower-resolution-satellite-data
  32. Military Load Classification - Wikipedia, 12월 6, 2025에 액세스, https://en.wikipedia.org/wiki/Military_Load_Classification
  33. STANAG 2021 – NATO Standard for Military Load Classification - Betalight-tactical, 12월 6, 2025에 액세스, https://betalight-tactical.com/knowledge-base/regulations/stanag-2021
  34. KOMPSAT-3 Satellite Sensor (0.7m), 12월 6, 2025에 액세스, https://www.satimagingcorp.com/satellite-sensors/kompsat-3/
  35. A Texture Reconstructive Downsampling for Multi-Scale Object Detection in UAV Remote-Sensing Images - MDPI, 12월 6, 2025에 액세스, https://www.mdpi.com/1424-8220/25/5/1569
  36. 지식자료실[25.2월 업데이트]소프트웨어(SW)사업 대가산정 가이드(2024 개정판) (2025년 엑셀 템플릿 포함) - 케이앤컨설팅, 12월 6, 2025에 액세스, http://knconsulting.co.kr/knowledge/?bmode=view&idx=3606588
  37. 2024년 적용 SW기술자 평균 임금 공표 - 미래경제전략연구원, 12월 6, 2025에 액세스, https://www.fesi.or.kr/post/2024%EB%85%84-%EC%A0%81%EC%9A%A9-sw%EA%B8%B0%EC%88%A0%EC%9E%90-%ED%8F%89%EA%B7%A0-%EC%9E%84%EA%B8%88-%EA%B3%B5%ED%91%9C
  38. 년 적용 기술자 평균임금 공표, 12월 6, 2025에 액세스, https://files-scs.pstatic.net/2024/06/11/rWYW23kJof/2024%EB%85%84%20%EC%A0%81%EC%9A%A9%20SW%EA%B8%B0%EC%88%A0%EC%9E%90%20%ED%8F%89%EA%B7%A0%EC%9E%84%EA%B8%88%20%EA%B3%B5%ED%91%9C.pdf
  39. 드론 촬영 - 숨고, 12월 6, 2025에 액세스, https://soomgo.com/prices/%EB%93%9C%EB%A1%A0-%EC%B4%AC%EC%98%81
  40. 안양시, '시 전역 고해상도 드론 지도' 자체 제작…예산 7억원 절감, 12월 6, 2025에 액세스, https://www.uiwangmedia.com/news/articleView.html?idxno=8214
  41. 2024년 육군 전투실험을 통해 본 Army TIGER 유·무인 복합전투체계 가능성 고찰, 12월 6, 2025에 액세스, https://bemil.chosun.com/nbrd/bbs/view.html?b_bbs_id=10008&branch=&pn=1&num=398&pan