1. 서 론
현대 군사 작전에서 핵심적인 역할을 수행하며 중요성이 지속적으로 증대되고 있는 유도탄은 탐색기, 관성측정기, 구동장치 및 추진기관 등 다양한 전자, 기계 화공품목들이 집약적으로 통합된 시스템이다[7]. 이 중 탐색기는 목표물을 탐지 및 추적하는 핵심적인 역할을 수행한다. 유도탄의 핵심부품인 탐색기의 고장은 가장 빈번하며 치명적이므로 본 연구에서는 유도탄 내 탐색기 고장을 고장이라 정의하였다. 유도탄의 생산 및 제조 단계의 데이터를 이용하여 탐색기 고장을 식별함으로써 유도탄의 요구되는 수명 이상을 만족할 수 있도록 하고자 한다.
유도탄은 장기 저장 후 1회 운용되는 일회용 장치(One-Shot Device)로 전술적 및 전략적 목적에 따라 다양하게 활용된다. 이러한 유도탄은 여러 구성품이 복잡한 형태로 탑재되어 있으며 이 중 핵심부품인 탐색기의 고장 또는 오작동은 심각한 결과를 야기할 수 있으므로 유도탄의 탐색기 고장을 예방하는 연구의 중요성이 강조된다. 유도탄의 긴 수명주기 동안 요구 수명 이상을 유지하고 고장을 예방하기 위한 연구가 활발히 진행되고 있으나, 대다수의 연구는 유도탄의 상태 진단 및 모니터링을 위한 절차 및 방안 제시에 관한 연구[14]나 고장 데이터 기반 신뢰성 예측에 관한 연구[20]에 집중되어 있다. 이에 반해 다양한 산업 분야에서는 생산 및 제조 단계의 데이터를 활용하여 품질 측면에서 잠재적 고장을 사전에 식별하는 연구가 활발히 진행되고 있다. 유도탄 분야에서는 생산 이후 필드에서 수집된 데이터를 기반으로 이상 징후를 분석하거나 결함을 탐지하는 연구가 존재하나, 생산 시점에서의 데이터를 활용한 연구는 부족한 실정이다.
10년 이상의 장기 수명을 갖는 OO 유도탄은 공정 단계에서 관리도를 통해 시험 SPEC인 공정관리 한계를 만족한 후 군에 배치되며, 배치 O년 후 매년 랜덤 샘플링 검사를 수행한다. 그러나 관리 한계를 만족하여 장기적인 수명을 가질 것이라 판단되어 군에 배치되었으나 군배치 후 탐색기 고장이 발생한 유도탄들이 존재한다. 탐색기 고장이 발생한 유도탄들에 대하여 생산 단계에서의 데이터 특징이 존재하는지 또는 생산 단계 데이터로 고장이 발생할 유도탄의 분류가 가능한지 검토해 볼 필요가 있다. 또한 일반적으로 유도탄의 경우, 배치 이후 획득되는 데이터양이 절대적으로 부족하므로 생산 시 데이터의 적극적 활용이 요구된다. 따라서 본 연구에서는 특정 기업 내 품질관리시스템에서 생산 및 제조단계의 제품 또는 공정 품질의 평가 및 관리에 사용하는 Quality Inspection Management(QIM) 데이터를 활용하여 향후 탐색기 고장 발생 가능성이 높은 유도탄을 생산 및 제조단계에서 머신러닝 모델을 활용하여 분류하고자 한다. 유도탄의 고장 데이터는 정상 데이터에 비해 상대적으로 적으며, QIM 데이터는 변수가 666개로 데이터의 차원이 매우 크다. 이러한 데이터 불균형은 학습과정에서 부정적인 영향을 미칠 수 있으며, 관측치보다 변수의 수가 많아지는 고차원 상황에서는 차원의 저주(Curse of Dimensionality)가 발생할 수 있다[6]. 차원의 저주는 차원이 증가함에 따라 특성 공간 차원이 함께 증가하여 함수의 최적화 문제를 복잡하게 만드는 현상이다. 본 연구에서는 이러한 문제점을 해결하기 위해 소수의 고장 데이터와 다차원 QIM 데이터를 사용하여 데이터 증강 및 차원축소 기법을 통해 데이터를 전처리한 후 머신러닝 기반의 분류모델로 생산 단계에서 고장이 발생할 가능성이 있는 유도탄을 식별하고 모델의 고장 결정기준이 되는 주요 변수를 추출하여 추후 검사항목 관리에 용이성을 높이고 유도탄의 품질을 향상시키고자 한다.
본 연구는 유도탄 품질 향상을 목표로 데이터 불균형 문제를 해결하고 차원 축소 기법을 비교하여 탐색기 고장을 분류하고 중요 변수를 추출하고자 한다. 본 연구의 절차는 <Figure 1>과 같다. 제2장에서는 관련 문헌 연구를 통해 데이터 샘플링 및 차원축소 기법이 산업에서 적용된 사례를 파악한다. 제3장에서는 선정된 샘플링 및 차원축소 기법, 지도학습 기반 분류 모델에 대한 방법론을 소개한다. 제4장에서는 데이터 소개 및 실제 데이터를 바탕으로 여러 전처리 방법론을 적용한 후 분류모델을 사용하여 탐색기의 고장을 분류하고 성능을 비교 분석하여 중요 변수를 도출한다. 이를 토대로 제5장에서 결론을 제시한다.
2. 관련 문헌 연구
QIM 데이터를 분석하기 위해 데이터 샘플링, 특징 선택 및 추출 등 전처리 수행을 통해 데이터의 양을 조절하고 차원을 축소해야 한다. 여러 산업 분야에서 차원축소 및 데이터 증강과 고장 분류에 다양한 기법이 적용된 연구사례를 <Table 1>에 정리하였다. Kim et al.[10]은 솔레노이드 펌프의 5가지 조건에 대한 진동 데이터로부터 21개의 통계적 특징을 추출하였다. 추출된 특징에 대하여 Spearman 상관관계 테스트를 통해 상관관계가 적은 특징을 선택한 후 다층 퍼셉트론을 통해 솔레노이드 펌프의 고장을 분류하였다. Chae et al.[2]은 화력발전소에서 센서를 통해 획득된 데이터에서 주요 특징을 선택하기 위해 fastICA 알고리즘을 통해 차원을 20개로 축소한 후 다변량 관리도를 이용하여 이상을 감지하여 초기에 고장을 발견함으로써 설비의 가용성을 높였다. Si et al.[21]은 선형회귀를 통한 Stepwise 기법을 통해 98개의 특징에서 32개의 특징을 선택한 후 해당 연구에서 제안된 적대적 생성 방식의 모델을 통해 사출기의 고장을 분류하였다. Lee and Kim[13]은 SHAP(SHapley Additive exPlanations)를 통해 특징을 선택한 후 TadGAN (Generative Adversarial Networks)을 통해 광업 센서데이터의 이상 구간을 탐지하였으며 일반적인 방법론에 비해 성능이 향상된 것을 확인하였다. Lee et al.[12]은 62개의 특징에 대하여 XGBoost(Extreme Gradient Boosting;), DT(Decision Tree), RF(Random Forest) 등과 같은 트리 계열 모델을 통해 변수 중요도를 기반으로 변수를 선택하고 선택되지 않은 변수들은 PCA(Principle Component Analysis)를 통해 전체 변수의 차원을 축소시켜 상위 15개의 특징으로 모델별 지도 학습을 수행한 결과 기존보다 성능이 향상되었다.
또한, 제조 공정에서는 양품보다 불량품이 소수이고, 이에 따라 불균형하게 데이터가 수집되므로 데이터의 특성을 고려하여 표본을 추출해야 한다[17]. 불균형 데이터에서는 오버 샘플링(OverSampling), 언더 샘플링 (UnderSampling) 및 ROSE(Random Over Sampling Example)[16] 등과 같은 다양한 샘플링 방법이 제안되어 왔다. 이 중 가장 일반적으로 사용되는 알고리즘은 오버 샘플링 방법[15]이며, 이외에 데이터 불균형 문제를 해결하고 고장을 분류하는 연구가 활발히 진행되어 왔다. Kim et al.[11]은 적층 복합재 시편들로부터 획득된 처프 입력 신호와 응답 신호를 상태공간 모델을 이용하여 데이터를 증강한 후 딥러닝 모델을 통해 적층 복합재의 고장을 분류하였다. Seo et al.[19]은 정압기 설비에서 자체 수집되는 유량 및 유압 데이터를 통해 이상 상태를 조기에 판단하기 위해 SMOTE(Synthetic Minority Oversampling Technique)를 사용하여 오버샘플링을 적용하였고 Gradient Boosting, 1D-CNN(Convolutional Neural Networks), LSTM(Long Short-Term Memory)을 활용하여 정압기의 고장을 분류한 결과 Gradient Boosting이 정확도 99.97%로 가장 우수한 성능을 보였다. Wei et al.[23]은 베어링 결함 진단을 위해 다중 클래스 LS-SVM(Least Squares Support Vector Machine) 기반 새로운 다중 클래스 불균형 결함 진단 방법에 관한 연구로 소수 샘플의 중요도 정렬을 기반으로 이진 불균형 문제를 해결하기 위해 새로운 오버샘플링 방법인 SCOTE(Sample-Characteristic Oversampling Technique)를 제안하였다. Choi et al.[5]은 전동기 고장 진단에 부족한 고장 데이터 수를 증대시키기 위해 GAN과 믹스업 알고리즘 비교하였으며 CNN으로 고장을 분류한 결과, 믹스업 알고리즘이 GAN 기반 전이학습에 비해 분산이 증가하여 더 높은 모델 분류성능을 보였다.
3. 연구방법론
본 장에서는 데이터 불균형 및 다차원 문제를 해결하기 위해 샘플링 기법과 차원 축소 기법을 검토하고 고장 분류 및 중요 변수 추출에 적합한 트리 계열 모델인 Random Forest, XGBoost, Gradient Boosting을 설명한다.
3.1 샘플링
불균형을 수치적으로 검증하기 위해 Hixiang et al.[9]은 다수 범주와 소수 범주 간 비율인 IR(Imbalance Ratio, 불균형률)을 계산하고 아래 <Table 2>와 같이 비율에 따른 불균형 정도를 제안하였다.
본 연구에서 사용된 데이터셋의 IR은 18.87로 10을 넘어가므로 불균형 정도가 매우 심하다고 볼 수 있다. 따라서 데이터의 불균형을 해결하기 위해 샘플링 기법을 통해 각 범주 간의 데이터를 균형있게 맞춰 성능을 비교할 필요가 있으며, 이에 대한 방법론에는 <Figure 2>와 같은 언더 샘플링과 오버샘플링 등의 기법이 존재한다. IR이 작은 경우에는 언더샘플링, IR이 큰 경우에는 오버 샘플링 방법을 적용하는 것이 최적의 성능을 보였으므로[9] 본 연구에는 오버샘플링이 더 적합하다고 판단된다.
오버샘플링과 언더샘플링은 각각 장단점을 지니며, 활용되는 데이터에 따라 선택이 가능하다. 데이터가 클래스마다 불균형한 분포를 가지는 경우, 오버샘플링은 소수 범주의 데이터를 증강시켜 각 클래스 간의 균형을 맞추는 기법으로 데이터의 손실은 발생하지 않으나, 데이터의 품질에 따라 이상치의 데이터를 증강하거나 과적합이 발생하는 문제가 존재한다. 반면에 언더샘플링은 다수 범주의 일부를 추출하여, 소수 범주의 데이터와 비율을 맞추는 기법이다. 이는 임의로 데이터를 추출하는 기법으로 데이터의 손실이 발생하며, 데이터의 편향이 존재할 가능성을 배제할 수 없다. 또한, 머신러닝은 다양한 데이터의 입력이 필요하므로 인위적인 손실이 발생하는 언더샘플링을 통한 데이터의 증강은 본 연구에서 배제하기로 한다. 오버샘플링 기법에서 데이터를 생성하는 대표적인 알고리즘에는 머신러닝을 활용한 SMOTE 알고리즘이 존재한다.
3.1.1 SMOTE[3]
SMOTE 알고리즘은 오버샘플링 기법에서 일반적으로 널리 사용되며, 기존의 오버샘플링과 같이 기존 데이터를 랜덤으로 복원 및 추출하는 것이 아니라 서로 이웃된 범주의 데이터들을 서로 보간하여 데이터를 증강하는 기법이다. 이 기법은 소수 범주 샘플에 대해 해당 샘플의 K-최근접 이웃(K-Nearest Neighbors) 중 하나를 선택하여 xi으로 정의한다. 그 후, 두 샘플 사이의 연속적인 공간에서 임의의 데이터 포인트를 생성하여 새로운 샘플 xnew으로 증강한다. 증강된 샘플은 식 (1)과 같이 계산된다.
수식에서 λ는 연속 균등 분포(Continuous Uniform Distribution)를 의미하며, 0과 1사이의 값을 랜덤으로 곱해 새로운 샘플이 사이 어디에 존재하는지를 결정한다. 이러한 방식으로 생성된 데이터는 원본 데이터의 분포를 모방하며 소수 범주의 데이터를 가상으로 증강한다. 이는 분류 문제에서 클래스의 불균형이 심한 경우, 성능개선에 기여할 수 있는 장점이 있다.
3.2 차원축소 기법
차원축소는 고차원 데이터의 차원을 축소하여 새로운 차원의 데이터를 생성하는 과정으로 <Figure 3>과 같이 불 필요한 변수 제거를 목적으로 하는 변수 선택(Feature selection)과 변수의 효과적인 요약을 위한 변수 추출(Feature extraction)로 구분된다.
본 연구에서는 유도탄의 666개 검사항목에 대한 측정값의 데이터 특성을 효과적으로 요약하고 통합하기 위해 원본 데이터의 정보를 새로운 형태로 통합하는 변수 추출 기법이 아닌 데이터의 원본 특성을 유지하고 설명력이 더 높은 변수 선택 방법을 적용하고자 한다. 아래는 대표적인 차원 축소 기법 중 변수추출의 PCA와 변수선택의 Lasso Regression에 대한 설명이다.
3.2.1 주성분 분석(PCA)[18]
PCA는 Pearson[18]에 의해 처음 기술되었으며, 다변량 데이터에서 선형 및 직교 변환을 사용하여 연관 관계가 있는 표본들을 저차원 공간의 표본들로 변환한다. 데이터의 분산을 최대화하는 주축을 찾아 고차원 데이터를 저차원 공간으로 투영함으로써 데이터를 정제하고 크기를 축소하는데 사용된다.
3.2.2 Lasso Regression[22]
Lasso Regression은 능형 회귀 (ridge regression)의 장점인 회귀계수 축소를 통해 예측 정확도를 높이고, 동시에 다중공선성이 높은 독립변수의 회귀계수 값을 쉽게 0으로 만드는 변수 선택의 기능이 있어 해석력을 높여준다. Lasso regression의 추정량은 식 (3)과 같이 구할 수 있다.
여기서 의 값은 회귀계수, xij는 설명변수, Yi는 종속변수, n은 관측값의 수, p는 변수의 수, λ는 정규화 매개변수로, 모델의 복잡성과 회귀 계수의 크기에 대한 페널티의 강도를 조절한다.
3.3 트리 기반 분류 모델
차원 축소를 통해 정제된 변수들을 활용하여 트리 기반 모델을 이용한 분류를 통해 고장이 발생할 가능성이 있는 유도탄을 공정 단계에서 식별하고자 한다. 트리 기반 모델은 변수 중요도를 명확하게 제시할 수 있는 강점을 지니고 있으므로 중요 변수의 도출이 가능하다. 본 연구에서는 트리 기반 분류 모델 중 다수의 결정 트리를 결합하여 분류 정확도를 높이고 과적합 방지 및 일반화 성능에 이점이 있는 Random Forest를 적용하고자 한다.
3.3.1 Random Forest[1]
Random Forest는 결정 트리의 앙상블 기법으로, 다수의 결정 트리를 생성하고 그 예측을 결합하여 최종 결정을 내리는 방법이다. Random Forest는 각 트리 훈련 시 무작위로 선택된 데이터 샘플 및 특성을 사용함으로써 모델의 분산을 줄이고, 과적합을 방지한다. 랜덤 포레스트는 분류와 회귀 문제 모두에 사용될 수 있으며, 높은 정확도와 강력한 일반화 능력을 제공한다. 랜덤 포레스트 모델의 예측은 개별 결정 트리의 예측을 평균내거나 다수결로 결정하여 계산된다. 분류 문제의 경우, 가장 많은 투표를 받은 클래스가 최종 예측 결과가 된다.
3.3.2 Gradient Boosting[8]
Gradient Boosting은 Friedman[8]에 의해 제안된 방법으로, 약한 학습기(주로 의사결정나무)를 순차적으로 학습시키면서 이전 학습기의 오차를 줄이는 방향으로 모델을 개선해 나가는 기법이다.
식 (4)에서 Fm(x)는 m번째 단계에서의 모델을 나타내며, hm은 m번째 약한 학습기의 예측, ρm은 최적화할 파라미터로 m번째 학습기의 기여도를 조절하는 학습률을 의미한다.
3.3.3 XGBoost[4]
XG부스트 회귀 모델은 Chen and Guestrin[4]에 의해 제시된 고성능 Gradient Boosting 라이브러리로, 의사결정나무로 구성된 다른 트리 기반 앙상블 모델과 달리 CART(Classification and Regression Tree) 모델을 기반으로 구성되어 있다. 또한 정규화와 병렬 처리를 통해 기존의 Gradient Boosting 방법보다 빠른 학습 속도와 높은 예측 정확도를 제공한다.
식 (6)에서 은 i번째 데이터에 대한 손실 함수이며, Ω(fk)는 k번째 트리 fk의 복잡성을 측정하는 규제 항 (regularization term)을 의미한다. 이 규제 항은 모델의 복 잡도에 따른 패널티를 부여하여 과적합을 방지할 수 있으며, 트리의 복잡성은 일반적으로 트리 내 노드의 수, 트리의 깊이 등을 기반으로 계산된다.
4. 실험 및 결과
본 장에서는 연구에 사용된 데이터셋을 소개하고 증강된 데이터에 대해 다양한 차원 축소 및 탐색기 고장 분류 모델을 적용한 결과를 비교분석 한 뒤 주요 변수를 도출하고자 한다.
4.1 연구 데이터
본 연구에서 사용한 생산 및 제조 단계에서의 QIM 데이터는 유도탄의 특성을 평가할 수 있는 다양한 시험 항목들과 그에 대한 측정값으로 구성되어 있다. QIM 데이터를 통해 고장을 분류하고 탐색기 고장에 영향을 미치는 변수를 도출하고자 한다. 전체 159발의 유도탄 중 8발의 탐색기 고장이 발생하였다. 데이터는 159발의 유도탄에 대해 수행된 666개의 검사항목에 따른 총 105,894개의 측정값으로 구성되어 있다. 검사항목 일부를 시각화한 그래프는 <Figure 4>와 같다. 666개의 시험 항목은 유도탄의 관성항 법성능, 연결저항, 탐색성능, 구동성능, 발사절차, 날개펼 침성능, 자체점검 등 여러 검사 항목 범주로 분류되며 그 에 대한 구체적인 생산 단계에서의 부품 시험 항목으로 구성되어 있다. 구체적인 시험 항목은 보안상의 이유로 X1, ..., X666와 같이 표기하고자 한다.
4.2 데이터 전처리
본 연구에서는 소수 클래스 데이터를 보간하여 새로운 샘플을 생성하고 클래스 간 불균형을 줄이는 효과적 방법 인 SMOTE 기법을 적용하여 오버샘플링을 진행하였다. 오버샘플링된 데이터가 기존 원본 데이터의 분포를 잘 따르는지 검증하기 위해 통계적 검정 방법인 콜모고로프-스미르노프(Kolmogorov-Smirnov, KS) 테스트와 만-휘트니 U(Mann-Whitney U) 테스트를 사용하였다. KS 테스트를 통해 데이터 분포의 전체적인 형태를 확인하고, Mann-Whitney U 테스트로 중앙값 차이를 평가하였다. KS 테스트는 두 누적 분포 함수(CDF) 간 최대 차이를 측정한다. 두 표본 집단에서 두 CDF 사이 최대 차이인 KS 통계량 D의 식은 (7)과 같다. Fn (x)는 첫 번째 표본의 CDF, Gm (x)는 두 번째 표본의 CDF이다.
Mann-Whitney U 테스트는 두 표본의 순위 합을 기반으로 계산되어 두 표본 간 순위 차이 측정치인 U를 통해 두 집간 간 순위 분포가 얼마나 다른지를 나타내며 이를 통해 중앙값의 차이를 검정한다.
데이터 분포의 전반적인 형태를 평가하기 위해 KS 테스트와 Mann-Whitney U 테스트를 적용한 결과, 두 통계적 검정에서 모두 P-value가 0.05 이상으로 나타났다. 이는 유의 수준 0.05에서 기존 데이터 분포와 증강된 데이터 분포가 통계적으로 유의미한 차이가 없음을 의미한다. 따라서 증강된 데이터가 기존 데이터의 분포와 동질함을 확인하였으며 이는 데이터 증강 과정이 원본 데이터 특성을 잘 보존하였음을 시사한다.
유도탄 QIM 데이터의 경우 다양한 검사 항목을 포함하므로 측정값의 범위 및 단위가 각각 다르게 나타난다. 지도학습 기반 분류 모델에 적용하기 전 이러한 문제를 해결하기 위해 모든 변수를 동일한 범위 내로 조정하는 정규화 중 Min-Max Scaling을 적용하였다. 정규화는 식 (8)과 같이 수행하였으며, 666개의 변수 중 결측값이 존재하거나 모든 열의 값이 동일한 경우 해당 변수를 제거하였으며 데이터의 일관성 및 분석 정확성을 높였다. 전처리 결과, 646개의 변수에서 20개가 제거되어 646개가 되었다.
4.3 차원축소
증강 및 전처리된 데이터 세트를 활용하여 차원 축소를 진행하고자 한다. 변수의 효과적인 요약을 목적으로 하는 변수 추출 기법인 PCA, LDA, SVD와 변수의 제거를 목적으로 하는 변수 선택 기법인 RFE, Lasso Regression, Elastic Net을 포함한 다양한 기법들을 적용하여 차원을 축소한 결과는 아래 <Table 4>와 같다.
<Table 5>는 변수추출의 대표적인 기법인 PCA를 적용하여 차원축소한 결과이다. PCA와 같은 변수 추출 방법을 통해서도 주요 변수를 도출할 수 있으나 이는 데이터의 분산을 최대화하는 선형조합으로 새로운 형태의 변수가 생성되어 원본 변수의 해석이 어렵다. <Table 5>와 같이 PCA를 통한 차원축소는 646개의 기존 변수들의 조합으로 구성되어 66개의 변수로 축소되므로 하나의 주성분이 갖는 중요도를 식별하는 과정에서도 상당한 해석이 요구되며 원본 데이터에 대한 직관적인 해석이 어렵다. 유도탄 품질 및 수명 향상을 위해 탐색기 고장에 크게 영향을 미치는 시험 항목을 도출하여 추후 특정 항목의 관리한계 수정 및 공정 개선을 위해서는 직관적인 변수 해석이 중요하다. 따라서 탐색기 고장 분류에 주요 변수를 파악하기 위해서는 변수 추출 보다는 변수 선택이 원본 특성 유지 및 설명력에 있어 더 적합하다고 판단되어 분류 모델 성능이 유사하다면 변수 선택 방법을 적용하고자 한다.
4.4 기계학습 모델링
4.3절에서 여러 기법을 통해 차원 축소된 데이터를 활용하여 고장 분류 후 변수 중요도를 파악하여 탐색기 고장에 대한 주요 변수를 도출하기 위해 Random Forest를 포함한 여러 트리 계열 모델을 적용하고자 한다. 또한 회귀 모델 기반 Logistic Regression, 거리 기반 모델 KNN(K-Nearest Neighbors) 등의 방법론도 함께 성능을 비교하고자 한다.
고장 분류 머신러닝에 적용한 하이퍼파라미터는 그리드 서치(Grid Search) 기법을 적용하여 최적 값을 선정하였다. 그리드 서치 기법은 여러 하이퍼파라미터 조합 중 최적의 성능을 달성하는 조합을 찾는 방법이다. 그리드 서치 방법으로 하이퍼파라미터를 조정하고 5-fold 교차검증으로 성능을 확인하여 성능이 가장 높게 나오는 하이퍼파라미터를 적용하였다. 5-fold 교차검증은 데이터셋을 5개의 독립적인 부분으로 나눠 각각을 검증 데이터를 사용하고 나머지를 훈련 데이터로 사용하는 방법으로 과적합을 방지하고 모델의 일반화 성능을 객관적으로 평가할 수 있다. 랜덤포 레스트의 경우 앙상블 내 트리개수는 200개, 트리 최대 깊이는 제한을 두지 않고 내부 노드 분할을 위한 샘플 수는 2개로 설정하였다. XGBoost의 경우 학습률은 0.1, 트리개 수는 200개로 설정하였다. Gradient Boosting의 경우 학습률은 0.1, 트리 최대 깊이는 3, 트리개수는 200개로 정하여 실험에 사용하였다. 로지스틱 회귀분석은 규제의 강도를 결정하는 역수인 c를 10으로 설정하였으며 최적화 문제를 해결하는 알고리즘으로는 liblinear를 사용하였다. KNN의 거리측정방법은 유클리디안 거리를 사용하였으며 가까운 이웃의 수 k를 5로 정하여 실험에 사용하였다.
4.5 성능평가
연구 결과를 정량적으로 비교하기 위해 모델 성능 평가 시 전반적 성능 파악이 가능한 Accuracy와 불균형 데이터 셋에서 모델 성능을 정밀하게 평가할 수 있는 F1-Score을 사용하고자 한다. 다양한 차원 축소 기법과 분류 모델들의 5-fold 교차검증에서 얻은 결과의 성능 비교를 통해 최적의 모델 구성 방안을 도출하고자 한다.
Accuracy란 모델이 올바르게 분류한 항목의 비율로 계 산된다.
F1-Score는 재현율과 정밀도의 조화 평균으로, 두 지표의 균형을 나타내는 값을 제공한다. 이는 특히 불균형한 데이터셋에서 유용한 지표로 활용된다.
증강된 데이터셋에 다양한 차원축소 기법을 적용하여 5-fold 교차검증을 통해 여러 머신러닝 모델의 분류성능을 평가 및 비교한 결과는 <Table 7>과 같다. 실험 결과 대부분 높은 성능을 보였으며 차원 변수 추출 기법은 PCA, SVD를 적용한 후 Random Forest, XGBoost를 적용한 모델이 99.70%로 높은 성능을 보였으며 변수 선택 기법은 Lasso Regression를 통한 차원 축소 후 Random Forest 적용한 모델이 정확도 및 F1-Score에서 99.40%로 가장 높은 성능을 보였다. 차원 축소 후 대부분의 모델에서 전반적으로 정확도 및 F1-score가 향상 되었다. LDA-KNN의 경우 정확도가 58.08%에서 91.04%로 F1-Score가 70.59%에서 91.66%로 가장 큰 효과를 보였다. 필드에서 고장이 발생한 유도탄의 생산 단계 데이터 확인 시, 모든 탄이 공정관리 한계 내에 위치하나 탐색기 고장이 발생한 유도탄들의 생산 단계 데이터에서의 특징을 학습하였을 때 생산 단계 데이터로 고장을 사전에 분류할 수 있음을 확인하였다. 다음 장에서는 어떠한 시험 항목 변수들이 가장 영향을 미치는지 도출하고자 한다.
4.6 최적 모형 선정
변수 추출 및 변수 선택 기법의 성능을 비교 분석한 결과, 두 접근 방식에서 모두 유사한 높은 성능을 보이므로 원본 변수 데이터 해석에 용이한 변수 선택 방법의 모델을 최종 모델로 선정하고자 한다. 따라서 본 연구에서는 변수 선택 기법 중 가장 높은 성능을 보인 Lasso Regression- Random Forest을 최적 모형으로 선정하였다. Lasso Regression-Random Forest를 통해 고장을 분류하고 분류 기준에 대한 변수 중요도를 파악한 결과는 <Table 8>과 같다. 보안상의 이유로 66개의 시험 항목은 X633, X571, X246, ..., X133으로 표기하였다.
변수 중요도 분석 결과, 구동성능, 날개펼침성능, 연결 저항, 탐색성능, 관성항법 성능에 관한 변수들 중 가장 높은 영향을 미치는 변수는 특정 부품의 탐색 성능에 대한 시험측정값으로 확인되었다. 그 외에도 발사절차, 연결저항 등에 대한 특정항목의 시험 측정값이 중요도가 높게 도출되었다. 가장 중요도가 높은 변수는 탐색성능 관련 시험 항목이었으나 가장 많은 개수를 차지하는 것은 연결저항과 관련된 특정 시험 항목이었다.
이와 같이 생산 단계 데이터로 고장이 발생할 가능성이 높은 유도탄을 분류하는 모델에서 중요도가 높은 시험 항목 변수를 도출하였다. 이를 통해 탐색기 고장과 관련된 시험 항목의 중요도와 관련 시험 항목 관리한계 재설정에 도움을 줄 수 있으며 추후 품질관리시스템 내 데이터 기반 의사결정 범위를 확장시키고 관리의 용이성 향상을 기대 할 수 있을 것이다. 또한 이를 통해 품질 향상과 필드에서 고장이 발생할 유도탄을 생산 단계에서 사전에 검토함으로써 필드에서 고장을 방지하여 유도탄의 수명을 향상시킬 수 있을 것이라 기대할 수 있다.
5. 결론
본 연구는 유도탄의 품질 및 수명 향상을 목표로 하며, 유도탄의 탐색기 고장을 예방하기 위해 생산 및 제조 단계에서의 QIM 데이터를 활용하여 트리 계열 분류 모델을 통해 생산 단계에서 탐색기 고장이 발생할 유도탄을 사전에 분류하고 탐색기 고장 결정에 중요한 변수를 도출하였다.
고장 데이터의 양이 제한적이며 차원의 수가 높은 상황을 고려하여 오버샘플링과 차원 축소 기법을 적용한 전처리 과정을 수행하였다. 변수 추출과 변수 선택 기법이 유사한 높은 성능을 보였으므로 데이터 특성 파악 및 해석과 추후 관리 측면에 있어 더 적합한 변수 선택 방법을 선택하였다. 최종 선택된 모델은 Lasso Regression을 통한 차원 축소 후 Random Forest로 고장을 분류하는 모델이며 99.40%의 정확도로 높은 성능을 보였다. Lasso Regression-Random Forest를 통해 주요 변수를 파악하여 탐색기 고장에 영향을 미치는 생산 단계에서의 시험 항목을 도출하였다. 이러한 접근 방식을 통해 탐색기 고장이 발생할 유도탄을 생산 단계에서 선별함으로써 고장률을 감소시키고 제품의 수명을 연장할 수 있는 가능성을 확인하였다. 또한 향후 관련 시험 항목의 관리한계 범위 조정 및 유지보수 전략 개선 등과 같은 품질관리시스템 내 데이터 기반 의사결정 범위 확장에 기여할 수 있을 것으로 기대된다. 본 연구에서는 생산 단계에서 탐색기 고장의 발생 가능성이 높은 유도탄을 분류하고 분류된 유도탄에 영향을 미치는 검사항목들을 도출하였다. 향후 연구에서는 표본 검사된 정상 유도탄에 대하여 도출된 검사항목의 열화 추세와 지역별 온도 및 습도가 열화에 미치는 영향 등을 파악하여 유도탄의 신뢰성을 향상시킬 수 있는 연구를 진행하고자 한다.