Journal Search Engine
Search Advanced Search Adode Reader(link)
Download PDF Export Citaion korean bibliography PMC previewer
ISSN : 2005-0461(Print)
ISSN : 2287-7975(Online)
Journal of Society of Korea Industrial and Systems Engineering Vol.48 No.1 pp.9-22
DOI : https://doi.org/10.11627/jksie.2025.48.1.009

eXplainable Artificial Intelligence Applied to Corporate Bankruptcy Prediction with Severely Imbalance Data

Jong Chul Yune*, Dong Hyun Back**
*Department of Management Consulting, Graduate School of Hanyang University
**Division of Business Administration, Hanyang University ERICA
Corresponding Author : estarbaek@hanyang.ac.kr
06/12/2024 29/12/2024 30/12/2024

Abstract


This study aims to improve the interpretability and transparency of forecasting results by applying an explainable AI technique to corporate default prediction models. In particular, the research addresses the challenges of data imbalance and the economic cost asymmetry of forecast errors. To tackle these issues, predictive performance was analyzed using the SMOTE-ENN imbalance sampling technique and a cost-sensitive learning approach. The main findings of the study are as follows. First, the four machine learning models used in this study (Logistic Regression, Random Forest, XGBoost, and CatBoost) produced significantly different evaluation results depending on the degree of asymmetry in forecast error costs between imbalance classes and the performance metrics applied. Second, XGBoost and CatBoost showed good predictive performance when considering variations in prediction cost asymmetry and diverse evaluation metrics. In particular, XGBoost showed the smallest gap between the actual default rate and the default judgment rate, highlighting its robustness in handling class imbalance and prediction cost asymmetry. Third, SHAP analysis revealed that total assets, net income to total assets, operating income to total assets, financial liability to total assets, and the retained earnings ratio were the most influential factors in predicting defaults. The significance of this study lies in its comprehensive evaluation of predictive performance of various ML models under class imbalance and cost asymmetry in forecast errors. Additionally, it demonstrates how explainable AI techniques can enhance the transparency and reliability of corporate default prediction models.



데이터 클래스 불균형 상황에서 설명가능 인공지능을 이용한 기업부도예측모델의 적용과 해석에 관한 연구

윤종철*, 백동현**
*한양대학교 일반대학원 경영컨설팅학과
**한양대학교 ERICA 경상대학 경영학부

초록


    1. 서 론

    다양한 산업 분야에서 기계학습(Machine Learning) 알 고리즘의 활용이 지속적으로 확대되고 있으며, 특히 대규 모 데이터를 처리하고 예측하는 데 있어 그 중요성이 크게 부각되고 있다. 이러한 추세에 따라 기업의 신용 상태를 평가하고 부실기업을 예측하기 위해 전통적인 통계적 방 법과 더불어 기계학습과 같은 인공지능 기술이 널리 활용 되고 있다.

    국내외적으로 발생하는 금융위기의 주요 발생 원인으 로 신용 위험이 지목되면서 금융기관이나 기업의 부도를 선제적으로 예측하는 방법론은 그간 꾸준하게 발전되어 왔으며, 최근에는 부도사건 자체와 재무정보 등의 관계를 기계학습을 통해 파악하고 이를 토대로 부도를 예측하는 연구가 활발하게 이루어지고 있다[4].

    기계학습 모델 중에서도 트리 기반 모델은 예측 성능 이 우수하고, 모델의 결과를 해석하기 용이하다는 점에 서 널리 사용되고 있다[27]. 대표적인 트리 기반 모델로 는 랜덤 포레스트(Random Forest)가 있는데, 여러 개의 결정 트리를 조합하여 예측 성능을 향상시키는 방식으 로 많은 분야에서 성공적인 결과를 나타내고 있다[21]. 그러나, 기존 랜덤 포레스트 모델의 성능을 더욱 향상시 키기 위해 다양한 변형 모델들이 개발되었다. 최근에 많 이 사용되고 있는 XGBoost(eXtreme Gradient Boosting), CatBoost(Category Boosting)와 같은 모델들은 랜덤 포레 스트의 한계를 개선하고, 더 나은 성능을 목표로 개발된 트리 기반 알고리즘이다. 이러한 모델들은 더 우수한 일 반화 성능을 제공하며, 계산 속도가 빠르고, 불균형한 데이터에 대해서도 강력한 성능을 발휘한다는 장점이 있다[36].

    전통적인 기계학습과 심층학습(Deep Learning) 모델은 고차원의 복잡한 데이터와 파라미터 간의 상호작용을 학 습하여 이를 기반으로 예측이나 결론을 도출한다. 그러나 이러한 모델들은 학습된 패턴과 결론을 설명하기가 어려 운 경우가 있으며 특히 심층학습의 경우에 복잡한 블랙박 스(Black-Box) 형태이기에 더욱 뚜렷하게 나타난다. 따라 서 모델이 어떻게 결과를 도출하는지 이해하는 것이 중요 한 응용 분야에서는 설명가능한 인공지능(eXplainable AI 또는 XAI)의 필요성이 대두되었다[1].

    설명가능한 인공지능을 활용하면 기업부도예측 모델이 어떻게 결론에 도달하는지 이해할 수 있으며 모델의 어떤 특성(Feature)이 기업부도와 관련이 있는지, 그리고 이러 한 특성이 어떻게 영향을 미치는지를 시각적으로 표현할 수 있다. 이를 통해 기업의 재무 상태를 해석하고, 모델의 결론에 영향을 주는 주요 요인을 식별할 수 있으며, 모델 의 결론이나 예측 결과를 설명할 수 있기 때문에 신용 평 가 기관이나 다른 의사결정자들은 기업부도예측 모델을 기반으로 의사결정의 타당성을 높일 수 있다[27].

    본 연구는 전통적인 기계학습 방법론이 기업 부도예측 에 있어서 높은 예측 성능을 보였음에도 불구하고 그 결과 해석의 어려움이 있는 문제를 해결하는 방향으로 기여하 는 데에 그 목적이 있다. 기존의 기계학습 모델들은 복잡 한 블랙박스 모델의 특성으로 인해 예측 결과를 경제적 논리로 설명하거나 해석하기 어려운 경우가 많다. 따라서 본 연구에서는 설명가능 인공지능 기법을 적용하여, 부도 예측 모델의 결과를 더 명확하게 이해하고 해석할 수 있는 방법을 제시하고자 한다.

    본 연구에서는 선행연구를 통해 예측 성능이 우수하다 고 알려진 트리 기반 모델들을 사용하여 기업부도예측의 성과를 평가하는데, 이들의 발전 과정을 고려하여 랜덤 포 레스트, XGBoost, CatBoost 모델의 성과를 비교 분석하고 자 한다. 그리고 로지스틱 회귀(Logistic Regression)를 벤 치마크 모델로 설정하여 성능 평가의 비교 기준으로 사용 한다. 기업 부도 데이터는 심각한 클래스 불균형의 특징을 가지고 있으며, 이에 따라 발생하는 type I 오류(false positive, FP)와 type II 오류(false negative, FN) 간의 경제적 비용의 비대칭성 문제도 크다. 이를 고려하여 본 연구에서 는 불균형 샘플링 기법인 SMOTE와 ENN(Edited Nearest Neighbor)을 적용하고, cost-sensitive learning 관점에서 기 업 부도예측 문제를 접근하고자 한다. 이를 통해 트리 기 반 모델들이 부도예측 문제에 어떻게 적용될 수 있는지, 그리고 각각의 모델들이 어떤 성과를 보이는지에 대해 심 층적으로 분석하고자 한다. 또한 본 연구에서는 설명가능 인공지능 방법 중 SHAP(SHapley Additive exPlanation) 방 법에 기반하여 기업부도예측 모델에서 각 특성들(features) 의 기여도를 파악한다. 구체적으로 어떤 특성들이 기업부 도와 높은 관련성이 있는지를 분석하고, 그리고 이러한 특 성들이 어떤 방향으로 영향을 미치는지를 시각적으로 표 현하여 기업부실요인을 해석하고 모델의 결론에 큰 영향 을 주는 주요 요인을 분석하여 모델의 결론이나 예측 결과 를 설명하고 기업부도예측 모델의 결과에 대한 신뢰도 및 투명성을 향상시키고자 한다[35].

    실제 데이터를 이용한 기업부도 예측과 해석의 결과 요 약하면 다음과 같다. 첫째, 불균형 클래스 간 예측 오류 비용의 비대칭성의 정도와 사용된 성과평가 지표에 따라 모델 평가 결과가 매우 상이하다. 둘째, 불균형 클래스 데 이터 평가에 보다 적합한 지표(Balanced accuracy, F1)를 사용할 때, 예측 오류의 비대칭적 비용을 고려하지 않을 경우 비교 모형인 로지스틱 회귀와 3개의 트리기반 앙상 블 모델의 예측 성능은 별 차이가 없었다. 셋째, 예측오류 비용의 비대칭성이 커짐에 따라 앙상블 모형 중 XGBoost 와 CatBoost의 성과가 다른 모형 대비 점점 더 상대적으로 개선되어 결국 예측 성과가 가장 좋게 나타났다. 넷째, 테 스트 데이터셋에 내재된 부도율과 모델의 부도판정률까지 함께 고려할 때 XGBoost 모델의 예측 성과가 좀 더 우수 하게 나타났다. 이 결과를 해석하기 위해 설명가능 인공지 능 기법인 SHAP 방법을 적용하였고, 이 때 부도에 기여도 가 높은 특성은 기업규모, 총자산 대비 이익률, 총자산 대 비 금융부채 비율 등의 순으로 나타났다. 이들 특성은 하 위 산업별 예측에서도 모두 매우 높은 예측 기여도를 보여 결과의 강건성(robustness)을 보였는데, 이는 재무경제 분 야의 선행연구와 전문가들의 인사이트와도 일치하는 결과 라고 평가할 수 있다.

    연구의 기여점은 다음과 같다. 첫째, 이 연구는 부도예 측을 위한 기계학습 관련 기존의 선행연구와 달리 기업 부도 데이터의 클래스 불균형의 문제를 불균형 샘플링 방법과 cost-sensitive learning 접근법을 동시에 적용하여 부도예측모델의 성과를 평가하였다. 둘째, 다양한 분야 에서 널리 활용되고 있는 설명가능 인공지능 SHAP 방법 을 부도예측 분야에 적용하여 부도예측 결과에 대한 해 석을 제시하고 부도예측 기여도의 순위가 높은 특성들을 확인하였고, 이러한 특성들의 중요도를 하위 산업 단위 에서도 확인하였다. 이러한 점들은 부도예측 분야에서 아직 초기 단계인 설명 가능 기계학습 연구의 발전에 기 여할 수 있다.

    이후의 내용은 이론적 배경, 연구 방법, 그리고 데이터 에 대한 설명이 이루어지고, 분석 결과를 제시한 후 논의 를 거쳐 마무리된다.

    2. 이론적 배경

    2.1 통계적 방법 중심의 기업부도예측 연구

    기업의 신용평가와 부실 예측 연구는 과거부터 꾸준히 진행되어 왔으며, 다양한 모델이 활용되어 왔다. 초기 연 구에서는 재무정보를 활용한 단일변량 및 다변량 분석이 주로 사용되었다. 예를 들어, Beaver[48]는 재무적 지표를 기반으로 단일변량 분석을 활용해 기업부도예측 모델을 제시했으며, Altman[4]은 5개의 재무비율을 기반으로 다 변량 판별분석을 통해 도산 1년 전 기업의 부도예측 정확 도를 95%까지 높였다. 한편 Ohlson[32]은 이항선택모델인 로지스틱 회귀분석을 통해 기업규모, 자본구조, 경영성과 등이 부도에 영향을 미치는 요인임을 밝히며, 96%의 예측 정확도를 제시하였다.

    1980년대 이후에는 단순히 재무정보에 의존하는 모델에 서 벗어나 기업 특성 및 거시경제와 같은 비재무적 요인을 반영한 예측 모델이 등장하였다. 예를 들어, McQuown[29]은 주식의 시장가격과 옵션가치 평가모델을 기반으로 한 KMV 모델을 통해 기업의 부도위험, 즉 Expected Default Frequency(EDF)를 측정하는 방법을 제안하였다.

    2000년대 들어서는 거시 경제 변수와 결합한 통합 모델 들이 연구되었다. Nam and Kim[30]은 시간 가변적인 헤저 드 모델을 사용해 거시경제 변동이 기업의 부도 확률에 미치는 영향을 실증적으로 분석했으며, Tinoco and Wilson[43]은 Panel Logit 모델을 통해 시장 정보와 거시 경제 변수가 부도에 미치는 영향을 연구하였다.

    2.2 기계학습 기반의 기업부도예측 연구

    전통적인 기업부도예측 연구는 주로 재무정보와 다변 량 통계 분석기법에 기반을 두었으나, 많은 예측변수를 다 룰 수 있는 복잡성과 예측 정확도의 한계로 인하여 1980년 대 후반부터는 인공신경망(Artificial Neural Network), 의 사결정나무(Decision Tree), 그리고 SVM(Support Vector Machine) 등 비모수적 예측 기법이 발전하여 기업부도예 측 연구에 적용되었다.

    인공신경망은 인간 두뇌의 신경 시스템이 작동하는 방 식을 모방하기 위해 만들어졌는데 Hertz et al.[19], Odom and Sharda[31]에 의해 부도예측에 처음 적용되었고 이후 수많은 기업 부실 및 파산 예측에 관한 연구에서 사용되었 다[42].

    의사결정나무는 의사결정규칙을 사용해 데이터샛을 더 간단한 하위 집합으로 분할하는 기계학습 기법으로서, Quinlan[38]이 반복적 이분법 3(ID3)을 개발한 이후 중요 한 기계학습의 도구로 자리를 잡았다. 의사결정나무는 다 른 기계학습 알고리즘에 비해 이해하기 쉽고 예측이 정확 한 편이지만[33], 과적합의 위험도가 높다는 단점이 있다 [22]. 따라서 의사결정 과정에서 여러 의사결정나무의 예 측력을 결합하는 앙상블(ensemble) 방식이 효과적 대안이 되었다. 앙상블 방법에는 비-부스팅 기반(non-boosting based) 랜덤 포레스트와 부스팅(boosting based) 기반인 LightGBM, XGBoost, CatBoost 등이 있다. 부스팅 기법은 이전 단계에 서 잘못 분류된 관측치에 더 많은 가중치를 부여하여 분류 기(classifier)를 결합하는 순차적 앙상블 기법으로, 일반적 으로 랜덤 포레스트와 같은 비부스팅 앙상블 방법보다 성 능이 우수하다[7]. 부스팅 방법은 기업부도예측을 위한 대 표적인 최신 기술로 인정되고, 많은 연구에서 효과적 예측 력이 확인되었다[37].

    2.3 설명가능 인공지능을 적용한 연구

    설명가능한 인공지능이란 복잡한 인공지능 모델이 도 출한 결과를 사람이 이해 가능하게 설명하고 분석하는 방 법론을 말한다[1]. 일반적으로 설명가능한 인공지능 방법 은 심층신경망(Deep Neural Network, DNN) 기반의 복잡 한 구조를 가지는 인공지능 모델의 결론 도출 과정을 분석 하려는 기술이다[27].

    기계학습 기법은 전통적 통계적 방법에 비하여 뛰어난 예측 성능을 제공하지만 그 복잡성으로 인해 해석 가능성 이 떨어진다는 문제가 있다. 특히, 고유의 "블랙박스" 특성 으로 인해 기계학습 모델의 입력 변수가 결과에 미치는 영향을 명확히 설명하기 어려워 사용자에게 신뢰성을 낮 추는 요인으로 작용한다[6]. 이로 인해 예측모델의 내부적 작동 방식이나 예측 결과를 이해하고 설명할 수 없다는 점이 문제로 지적되었으며, 이는 사용자와 의사결정자들 이 이러한 예측 결과를 쉽게 수용하지 못하게 만든다[6]. 이러한 한계를 극복하기 위해 설명가능한 인공지능 (eXpainable Artificial Intelligence, XAI)의 필요성이 대두 되었다. 설명가능성 또는 해석가능성(interpretability)은 인 간이 이해할 수 있는 용어로 설명하거나 제시할 수 있는 능력으로 정의되는데 Doshi-Velez and Kim[15], Miller[42] 는 설명 가능성을 사람들이 의사 결정의 원인을 이해할 수 있는 정도라고 정의하였다. 설명가능한 인공지능은 예 측 결과에 대해 통계적 해석, 즉 예측의 이유를 제시하고, 인공지능의 사회적 위험을 줄이는 데에도 기여한다. 이를 통해 인공지능의 예측 결과에 대한 신뢰도를 높이고, 다양 한 산업에 걸쳐 보다 투명한 의사결정에 도움이 될 수 있 다[14].

    부도예측 분야에서는 비교적 최근인 2010년대부터 채 무 불이행을 예측하는 기계학습과 심층학습 모델의 설명 력에 대한 연구가 본격적으로 이루어졌다[44]. Bracke et al.[8]은 부스팅 모델을 사용하여 영국에서 모기지 대출의 부도를 예측했는데, 이들은 설명변수에 대한 샤플리값 (Shapley values)을 계산하여 부도예측에 대한 기여도를 평 가하였다. Babaei et al.[5]은 중소기업의 채무 불이행을 예 측하기 위해 낮은 샤플리값을 가진 변수를 제거하였는데 그 결과 예측변수의 수가 과도하지 않고 적정할 때 기업의 부도가 더 잘 예측되는 것으로 나타났다. 또한 일부 연구 에서는 모델에 포함된 변수의 설명력을 비교하기 위해 SHAP 방법과 LIME (Local Interpretable Model-agnostic Explanations, 국소 해석가능 모델무관 설명) 방법을 사용 하기도 하였다[26,39].

    3. 연구 방법

    3.1 예측모델

    3.1.1 개요

    본 연구에서는 기업의 부도예측을 위한 다양한 기계학 습 모델을 적용하고 비교 분석하였다. 기업 부도예측 모델 은 주로 금융 분야에서 중요한 연구 주제로, 특히 기업의 재무 건전성을 평가하고 리스크를 관리하는 데 사용된다 [23]. 이 연구에서 사용하는 기계학습 모델은 로지스틱 회 귀, 랜덤 포레스트, XGBoost, CatBoost로, 각각의 예측 성 능을 비교 분석하였다. 로지스틱 회귀는 오랜 기간 사용된 전통적인 분석 모델로서, 이를 벤치마크로 설정하여 나머 지 모델들의 성능을 비교하는 기준으로 삼았다. 랜덤 포레 스트, XGBoost, CatBoost는 모두 앙상블 기법을 사용한 대 표적인 트리 기반의 모델로, 이들 모델은 복잡한 데이터를 처리하는 데 강력한 성능을 발휘하는 특징이 있다[36].

    3.1.2 로지스틱 회귀

    로지스틱 회귀는 1958년 Cox가 처음 제안한 기법으로, 선형 회귀 분석의 개념을 분류 문제에 적용한 대표적인 통계적 모델이다. 이 기법은 설명변수의 선형 결합을 통해 사건 발생 가능성을 예측하며, 반응변수가 범주형인 데이 터를 대상으로 일반화된 선형모델(Generalized Linear Model)을 구축한다. 로지스틱 회귀는 특히 이진 분류 문제 에 자주 사용되며, 예측 결과를 0과 1 사이의 확률로 나타 낸다. 예를 들어, 어떤 기업이 부도가 날 확률을 0에서 1 사이의 값으로 예측할 수 있다. 이 모델은 시그모이드 함 수를 사용해 예측값을 제한하며, S자 형태의 이 함수는 입 력값이 클수록 1에, 작을수록 0에 가까워진다. 이러한 특 성으로 로지스틱 회귀는 연속적인 예측값을 분류 문제에 효과적으로 적용할 수 있는 모델로 다양한 분야에서 폭넓 게 활용된다[20].

    로지스틱 회귀의 주요 장점으로는 모델이 단순하고 해석 이 용이하다는 점이 있다. 예측 결과를 통해 각 설명변수가 얼마나 영향을 미치는지 쉽게 파악할 수 있어, 금융 및 비즈 니스 분야에서 의사결정에 중요한 정보를 제공한다. 반면, 복잡한 비선형 관계를 잘 설명하지 못해 대규모나 고차원 데이터에 대해서는 예측 성능이 떨어질 수 있으며, 데이터 에 이상값이나 누락값이 있는 경우 결과의 신뢰도가 낮아질 수 있어 데이터 전처리가 중요하게 요구된다[20].

    3.1.3 랜덤 포레스트 (Random Forest)

    랜덤 포레스트는 다수의 의사결정나무(Decision Tree) 를 결합하여 예측 성능을 높이는 앙상블(Ensemble) 기법 이다. 각각의 나무는 독립적으로 학습하며, 최종 예측은 여러 나무의 예측을 종합해 결정된다. 이를 통해 과적합 (overfitting)을 줄이고, 보다 안정적이고 일반화된 예측이 가능하다. 랜덤 포레스트는 데이터를 부트스트랩 샘플링 (bootstrap sampling)하여 각 샘플로 서로 다른 나무를 학습 시키며, 분류 문제는 다수결 투표(voting), 회귀 문제는 평 균으로 최종 예측을 수행한다. 이 방법은 예측의 안정성을 높이며 오류를 줄이는 데 효과적이다 [9].

    랜덤 포레스트는 매우 강력한 예측 성능을 가지지만, 모 델 해석이 어려운 것이 단점이다. Breiman[9]이 제안한 이 기법은 과적합 방지와 일반화 성능을 향상시킬 수 있으며, 이상치에 민감하지 않다. 또한, 부트스트랩과 최적화 과정 에서 임의성을 부여하여 각 나무의 상관성을 줄이고, 결합 을 통해 전체 모델의 정확도를 높일 수 있다. 이를 통해 랜덤 포레스트는 다양한 데이터 환경에서 높은 예측 성능 을 유지하는 데 강점을 보인다 [9].

    3.1.4 XGBoost

    부스팅 기법은 1990년 Robert Schapire에 의해 제안된 앙상블 기법으로, 약한 학습기(weak learner)를 순차적으로 결합해 강한 학습기(strong learner)를 만든다[9]. 배깅과 달 리 부스팅은 이전 학습기의 오류를 다음 학습기에 반영해 표본의 가중치를 조정하며 점진적으로 성능을 개선한다. XGBoost는 부스팅 알고리즘 중 하나로, 병렬처리 방식을 사용해 학습 속도를 높이며 정규화를 포함해 과적합을 방 지한다. 이 알고리즘은 이전 모델의 오류를 학습해 더욱 향상된 예측 성능을 제공하며, 일반적으로 복잡한 데이터 셋에서 강력한 성능을 보여준다 [13].

    XGBoost는 기존 그라디언트 부스트(Gradient Boosting) 와 유사하지만, 병렬처리와 정규화 과정을 통해 학습 속도 와 일반화 성능을 개선했다. 각 단계에서 이전 모델이 잘 못 예측한 데이터에 가중치를 부여해 점진적으로 개선하 며, 이는 다양한 예측 문제에서 XGBoost가 자주 사용되는 이유다[28].

    3.1.5 CatBoost

    CatBoost는 Yandex에서 개발된 고성능 그래디언트 부 스팅 알고리즘으로, 특히 범주형 데이터를 효과적으로 처 리하는 데 강점을 가지고 있다. ‘Categorical Boosting'의 약 자인 CatBoost는 타겟 누수(target leakage)와 과적합 문제 를 해결하기 위해 ordered boosting이라는 기법을 도입하 여 모델의 일반화 성능을 향상시킬 수 있다. 기존 그래디 언트 부스팅에서 필요한 원-핫 인코딩 등의 복잡한 전처리 과정을 줄여, 범주형 데이터를 더욱 효율적으로 다룰 수 있게 했다[36].

    CatBoost는 대칭 트리(symmetric tree) 구조를 채택해 모 든 트리 레벨에서 일관된 기준으로 데이터를 분할하여 과 적합을 방지하고, 모델의 일관성을 유지한다. 이로 인해 고차원 데이터에서도 학습 속도와 안정성을 보장할 수 있 으며, 사용자 친화적인 인터페이스를 통해 별도의 데이터 전처리 없이 손쉽게 범주형 데이터를 처리할 수 있다. 이 러한 특성 덕분에 CatBoost는 대규모 데이터셋에서도 우 수한 성능을 보인다. 다만, CatBoost는 범주형 데이터를 처 리하는 과정에서 메모리 사용량이 많아질 수 있으며, 알고 리즘 자체가 복잡해 이해에 시간이 걸릴 수 있다. 또한 최 적의 성능을 위해 하이퍼파라미터 튜닝이 필요할 수 있으 며, 이 과정에서 추가적인 노력이 필요할 수 있다[36].

    3.2 클래스 불균형 접근법

    3.2.1 개요

    Resampling 기법은 불균형한 클래스 간의 데이터를 조 정하여 모델이 소수 클래스에 대해 더 나은 예측 성능을 가지도록 돕는다. Resampling 기법은 다양한 기법들이 존 재하는데 이 중 SMOTE는 소수 클래스 데이터를 인위적 으로 생성하여 데이터 불균형을 줄이고, ENN은 노이즈 데 이터나 불필요한 데이터를 제거하여 데이터 품질을 높이 는 방식이다. 이 두 기법을 결합한 SMOTE-ENN은 모델이 소수 클래스에 대한 예측을 보다 정확하게 수행할 수 있도 록 돕는다[41].

    Cost-sensitive learning은 예측 결과에 따른 비용을 고려 하여 모델이 잘못된 예측으로 인한 경제적 손실을 최소화 할 수 있도록 최적화하는 기법이다. 기업 부도예측에서 부 도 기업을 놓치는 경우(FN, Type II 오류)가 정상 기업을 부도로 잘못 분류하는 경우(FP, Type I 오류)보다 경제적 비용이 더 크다면, 이 차이를 반영하여 부도 기업을 더 정 확하게 예측하려고 한다. Cost-sensitive learning은 이러한 비용 비대칭성을 반영해 모델이 단순히 정확도를 높이는 것보다 실제 비용을 절감하는 방향으로 학습을 진행하게 한다[41].

    본 연구에서는 클래스 불균형 문제를 해결하기 위해 SMOTE-ENN과 같은 불균형 샘플링 기법을 적용하였다. 이러한 샘플링 기법은 데이터의 클래스 불균형 문제를 완 화하고, 예측 모델의 성능을 향상시키는 데 중요한 역할을 한다. 또한, cost-sensitive learning 접근법을 사용하여, type I 오류(FP)와 type II 오류(FN)의 경제적 비용 비대칭성을 고려하여 모델의 예측 성능을 평가하였다.

    3.2.2 SMOTE ENN

    SMOTE-ENN은 데이터 불균형 문제를 해결하기 위해 SMOTE(Synthetic Minority Over-sampling Technique)와 ENN(Edited Nearest Neighbours) 기법을 결합한 방식이다. SMOTE는 소수 클래스 데이터를 보강하기 위해 인공적으 로 새로운 데이터를 생성하여 데이터 불균형을 완화하는 역할을 한다. ENN은 생성된 데이터를 정제하는 과정으로, 데이터셋 내의 노이즈와 불필요한 데이터를 제거하여 데 이터의 품질을 높인다. 이 두 가지를 결합한 SMOTE-ENN 은 소수 클래스의 대표성을 강화하고 데이터셋 내의 불필 요한 정보를 줄여 보다 일반화된 모델을 만드는 데 도움을 준다[17].

    SMOTE-ENN의 장점으로는 소수 클래스의 표현력이 향상된다는 점이다. SMOTE를 통해 소수 클래스의 데이 터를 효과적으로 보강하여, 모델이 소수 클래스도 잘 학습 할 수 있게 한다. 또한, ENN을 통해 데이터셋의 노이즈를 줄여, 모델 학습에 방해가 될 수 있는 잘못된 데이터를 제 거하여 모델의 성능을 높인다. 그리고 SMOTE와 ENN의 결합은 과적합 문제를 완화하고 데이터의 품질을 높여 모 델의 일반화 성능, 즉 새로운 데이터에 대한 예측 능력을 향상시킨다. 반면 단점으로는 SMOTE와 ENN을 함께 적 용하기 때문에 계산 과정이 복잡해지고, 실행 시간이 길어 질 수 있다. 그리고 데이터 손실 가능성 있어 ENN을 통해 데이터셋의 노이즈를 제거할 때, 유용한 정보를 포함한 샘 플이 함께 삭제될 위험이 있다. 고차원 데이터의 경우, 생 성된 데이터가 효과적이지 않을 수 있으며, 특히 데이터 간의 거리를 기반으로 하는 k-NN 기법의 한계가 발생할 수 있다[12].

    3.2.3 Cost-sensitive learning

    ‘대칭적 비용(Symmetric Cost)’은 모든 예측 오류 유형 (예: 잘못된 부도 예측과 잘못된 정상 예측)에 동일한 경제 적 비용이 수반되는 경우를 의미한다. 모든 오류가 같이 중요한 상황에서는 대칭적 비용을 가정하는 것이 적합하 다. ‘비대칭적 비용(Asymmetric Cost)’은 예측 오류 유형마 다 서로 다른 경제적 비용이 수반되는 경우를 의미한다. 어느 오류의 영향이 다른 오류의 영향보다 더 클 경우, 비 대칭적 비용 구조가 중요하다.

    Cost-sensitive learning은 결과인 TP(True Positive), TN(True Negative), FP(False Positive), FN(False Negative) 에 서로 다른 비용을 부여함으로써, 단순히 높은 정확도를 목표로 하지 않고 실제 비용 절감을 최우선으로 한다. 예 를 들어, 의료나 신용카드 사기 탐지와 같은 분야에서는 잘못된 음성(FN)이나 양성(FP) 예측이 초래할 수 있는 큰 재정적 손실을 고려해 학습을 진행한다[16,38].

    이 기법은 정오분류표를 활용하여 특정 유형의 오류에 따른 비용을 최소화하는 방향으로 모델을 최적화하며, 특 히 재정적 손실이 중요한 문제에서 광범위하게 활용된다. 이를 통해 Cost-sensitive learning은 단순히 예측 성능을 개 선하는 것뿐만 아니라, 자원 효율성과 재정적 효율성을 극 대화하는 데 기여한다[16,39].

    3.3 Performance Metrics

    분류 모델의 성능을 평가할 때는 정오분류표(confusion matrix)를 기반으로 정확도(accuracy), 오류율(error rate), 민감도(sensitivity), 특이도(specificity), 정밀도(precision), AUC(Area Under the Curve) 등의 다양한 지표가 활용된 다. 정오분류표는 실제 값과 예측된 값을 비교하여 모델의 성능을 정량적으로 평가하는 데 매우 유용하다[17].

    정확도(Accuracy)는 전체 데이터에서 실제 목표 변수를 올바르게 예측한 비율을 나타내며, 모델의 전반적인 성능 을 평가하는 데 사용된다. 하지만 데이터 불균형이 심한 경우, 특히 부도예측과 같은 문제에서는 정확도만을 성능 지표로 사용하기에는 한계가 있다. 이는 대부분의 데이터 를 차지하는 정상 기업을 잘 예측할 수 있지만, 중요한 소 수 범주인 부도 기업 예측에서는 성능이 떨어질 수 있기 때문이다[10].

    Balanced Accuracy는 불균형 데이터 문제에서 모델의 성능을 공정하게 평가하기 위해 고안된 지표로서, 이는 모 든 클래스가 균등하게 중요하다고 가정하고 민감도 (Sensitivity)와 특이도(Specificity)의 균형으로 모델의 성능 을 평가하는 방법이다.

    Balanced Accuracy = (Sentivity + Specificity) / 2
    (1)

    민감도와 특이도를 함께 반영한 지표인 AUC(Area Under the Curve)는 ROC 곡선 아래의 면적을 의미하며 정 확히 분류된 TP와 잘못 분류된 FP의 균형을 반영한다[47]. AUC 값이 1에 가까울수록 모델의 성능이 뛰어남을 의미 한다.

    F1 점수는 정밀도(Precision)와 재현율(Recall)의 조화평 균으로, 모델의 분류 성능을 평가할 때 특히 데이터가 불균 형한 경우 유용한 지표로 사용된다. F1 값이 높을수록 모델 이 높은 정밀도와 재현율을 잘 균형 잡고 있음을 나타낸다.

    Precision = TP / (TP + FP)
    (2)

    Recall = TP / (TP + FN)
    (3)

    F1 Score = 2 x (Precision x Recall) / (Precision + Recall)
    (4)

    ROC 곡선(Receiver Operating Characteristic Curve)은 분 류 모델의 성능을 다양한 임계값에서 평가하기 위해 사용 되는 시각적 도구로, 기계 학습에서 분류 성능을 분석하는 데 활용된다. 양성 클래스(예: 부도 기업)를 얼마나 정확히 예측했는지(민감도)와 음성 클래스를 얼마나 잘 구분했는 지(특이도)를 분석한다. 진정한 양성 비율(True Positive Rate, TPR)을 거짓 양성 비율(False Positive Rate, FPR)에 대해 다른 임곗값에서 그래프로 나타낸다. 이를 통해 진정 한 양성의 이점과 거짓 양성의 비용 사이의 교환을 평가할 수 있다.

    불균형 데이터를 다루는 본 연구에서는 이러한 다양한 지표를 종합적으로 고려하여 기업 부도예측 모델의 성능 을 평가하였다[17].

    3.4 설명가능 인공지능

    3.4.1 개요

    설명가능 인공지능 기법은 크게 특성 기반 모델과 예시 기반 모델로 나눌 수 있으며, 각 기법은 인공지능 모델의 설명력을 높이기 위한 다양한 방법을 제공한다. 특성 기반 모델은 모델의 예측에 기여하는 개별 특성의 중요도를 강 조함으로써 의사 결정 과정에 대한 통찰력을 제공하며, 예 시 기반 모델은 특정 사례가 모델 출력에 미치는 영향을 정량적으로 분석하여 설명한다[3,15]. 본 연구에서 활용 하는 SHAP방법은 대표적인 설명가능 인공지능 기법으로 서, 모델 예측 결과에 대한 직관적인 값을 제공하고 이를 통해 모델의 투명성을 높이는 데에 기여한다[47].

    LIME(Local Interpretable Model-agnostic Explanation)은 상대적으로 간단하고 구현이 쉬우며, 특정 국소적 설명이 필요한 경우 유용하나, 해석의 신뢰성과 일관성이 중요한 상황에서는 SHAP이 더 적합한 방법이라고 할 수 있다[27].

    3.4.2 SHAP

    SHAP은 특성의 중요도를 일관성 있게 평가하며, 이를 시각화 도구(폭포수 플롯, 벌집 플롯 등)와 결합해 모델의 예측 과정을 직관적으로 이해하도록 돕는다. 다만, 모든 특성 조합을 평가하는 과정이 필요해 계산 비용이 높으며, 특히 복잡한 모델이나 대규모 데이터셋에서 이러한 부담이 크다 [27].

    SHAP은 특성 간 독립성을 가정하기 때문에 상호 의존 성이 높은 데이터에서는 결과가 부정확할 수 있으며, 일부 복잡한 모델에서는 적용에 제한이 있을 수 있다. 그럼에도 불구하고 SHAP은 다양한 예측 문제에서 해석 가능성을 제공하며, 개별 특성의 긍정적 또는 부정적 기여도를 구체 적으로 보여주는 장점이 있다[27].

    SHAP의 핵심 기능은 각 특성이 모델 예측에 미치는 기 여도를 시각적으로 표현하는 것이다. SHAP 값은 개별 특 성의 긍정적 또는 부정적 기여도를 수치화해, 모델 성능에 중요한 특성을 명확히 파악할 수 있게 한다. 글로벌 해석 은 전체 데이터에서 중요한 특성을, 로컬 해석은 개별 예 측의 과정을 설명한다. 이로 인해 SHAP는 모델 투명성을 높이며, 예측 성능뿐만 아니라 예측 과정의 이해를 돕는 중요한 역할을 한다[27].

    4. 데이터

    4.1 부도 기업의 정의

    상장기업을 연구 대상으로 하는 본 연구에서는 관련된 여러 선행연구를 따라 부실한 재무적 성과를 이유로 상장폐 지된 기업을 부도 기업으로 정의한다[35,46]. 거래소에서의 상장폐지 자체가 기업의 부도와 반드시 연결되는 것은 아니 며, 상장폐지 사유는 사업보고서 미제출, 감사의견 거절, 완전 자본잠식, 매출 미달, 시가총액 미달 등 다양하다. 하지 만 재무실적 악화로 인한 상장폐지는 투자자와 채권자에게 큰 손실을 유발하게 되므로 부도예측모델의 성능평가를 위 해 상장폐지를 부도로 인식하는 것은 보다 보수적인 기준에 서 부도를 적절하게 평가하는 방법이라고 할 수 있다[23].

    4.2 표본 구성

    본 연구에 사용한 데이터는 에프앤가이드의 데이터가이 드 애플리케이션을 통해 확보하였다. 표본은 2002년부터 2023년까지 한국 주식시장에 상장된 기업 중 예측변수 산출 을 위한 시가총액 및 총자산, 매출액, 영업이익 등 재무계정 정보가 유효한 기업으로 구성된다. 그리고 산업별로 예측 성능의 강건성을 평가하기 위해 소속 기업 수가 가장 많은 상위 2개 산업인 경기소비재와 IT 산업을 선정하였다. 표본 구성 내역과 부도율은 <Table 1>와 같은데, 경기소비재와 IT 산업의 표본수(NObs.)는 각각 7,591과 10,806이며 정상 기업과 부도기업의 비율은 66.14배(= 18,123/274)로서 클래 스 불균형 데이터의 특징을 나타내고 있다.

    4.3 부도예측 변수 선정

    이 연구에서는 Charitou et al.[11], Heo and Baek[18], Zhang[46], Zhang et al.[47] 등 이전의 기업부도예측 연구 에서 성과가 확인된 다수의 재무 비율 변수들을 검토한 후 기업 부도예측을 위한 특성 변수로 선정하였다. 이러한 특성 변수들은 성격에 따라 기업규모, 성장성, 수익성, 건 전성, 유동성, 자산/비용구성, 그리고 활동성으로 분류할 수 있다(<Table 2>).

    4.4 전처리 및 불균형 샘플링

    부실기업의 예측을 위해 사용된 특성 중 (로그총자산을 제외한) 비율 변수들은 윈저화(winsorization), 즉 극단값을 좌우 경계값(3%)으로 대체하는 과정 및 다시 이를 표준화 (normalization)하는 과정을 거쳤다. 이후 전체 데이터를 훈련 표본과 테스트 표본으로 분할하였고, 훈련 표본을 이용하여 하이퍼파라미터 튜닝(hyperparameter tuning)과 SMOTE-ENN 불균형 샘플링을 각각 실시하였다. 한편 예 측 오류의 비용과 관련된 ‘클래스 비중(class weight)’은 하 이퍼파라미터 튜닝 시 제외하였고, 대신 여러 경우의 수를 가정하고 모델 성과를 산출하였다(<Table 7>).

    4.5 기초통계

    전체 데이터에 대하여 표준화 이전 원변수 기준의 기초 통계량을 정상기업과 부도기업으로 나누어 다음 <Table 3>, <Table 4>와 같이 제시하였다.

    5. 분석 결과

    5.1 불균형 샘플링 전후 데이터 비교

    <Table 5>, <Table 6>는 각각 훈련 표본과 SMOTE-ENN 적용 재추출 표본의 특성을 제시하고 있다. 재추출 표본의 크기는 27,822로 훈련 표본의 크기 대비 89% 더 많은 수치이 고, 이의 부도율은 52.1%로서 정상 기업에는 언더샘플링이 적용되고 부도 기업에는 오버샘플링이 적용되었다.

    5.2 모델 성과 비교

    클래스 불균형 데이터에서는 부도예측 오류에 따르는 비용의 비대칭성 가정에 따라 각 모델별 예측 성과에도 차 이가 발생하게 된다. FN과 FP의 예측 오류 비용 차이에 대 해서는 1배(대칭적 비용), 5배, 10배, 또는 20배의 차이를 가정하고 분석하였다. 모델의 성과 비교를 위해 분류 결과 (FN, FP, TP, TN)를 이용하여 FNR, FPR, AUC, Accuracy, Balanced accuracy, 그리고 F1 등 모두 6개의 성과 지표를 산출하였는데, Balanced accuracy 및 F1 score와 같은 지표 가 클래스 불균형이 심한 기업부도 데이터를 이용한 예측 모델의 평가에 보다 적합하다[24,34]. 그리고 예측 성과 비 교 시에 테스트 데이터에서 각 모델이 부도로 판정한 비율 ((TP+NP) / TP+NP+TN+FN)도 함께 고려하였다.

    <Table 7>는 전체 데이터(경기소비재 및 IT 산업)에 있어 서 부도예측 오류 비용의 비대칭성의 정도에 따라 로지스틱 회귀, XGboost, CatBoost, 랜덤 포레스트 등 4가지 모델의 예측 성과를 나타낸다. 예측 오류 비용이 대칭적인 경우(패 널A) Balanced accuracy는 로지스틱 회귀가 가장 높았고 (0.869), F1 score는 XGBoost(0.163)와 CatBoost(0.186)가 우 수하였다. 부도 판정률은 모델별로 0.138~0.186 범위 내였 다. 그런데 예측 오류 비용의 비대칭성이 증가함에 따라 모델 별 예측 성과와 부도 판정률은 상당히 달리지는 것으로 나타 났다(패널B ,C, D). 로지스틱 회귀의 경우 부도 판정률은 다른 모델보다 더욱 크게 증가하여 비대칭적 비용의 차이가 20일 때 0.482까지 증가하였으나, Balanced accuracy는 0.744 까지 떨어졌다. 반면 XGBoost(CatBoost)의 경우 부도 판정 률은 0.232(0.333)까지 증가하였으나 Balanced accuracy는 0.835(0.811)로서 예측 오류 비용의 비대칭적 차이가 없는 경우의 값 0.839(0.841)에 비해 큰 차이가 없었다. 비대칭적 차이가 커짐에 따라 F1-score는 감소하는 경향이 대체로 뚜 렷하였으나 XGBoost의 경우 그 정도가 가장 낮았다. 비대칭적 차이가 10인 경우를 중심으로 평가하면(패널C), XGBoost의 경우 부도 판정률이 0.080이고, Balanced accurcy는 0.777로 상대적으로 낮았으나 F1-score는 0.180으로서 다른 모델보 다 더 좋은 예측 성과를 보였다. 그리고 CatBoost(랜럼 포레스 트)의 경우 부도 판정률이 0.227(0.215)이고, Balanced accurcy 는 0.833(0.829)으로 우수하였고 F1-score는 0.097(0.098)로 서 XGBoost보다는 낮은 성과를 보였다.

    한편 <Table 8>과 <Table 9>는 경기소비재와 IT 각 산업 별 데이터에 있어서 예측 오류 비용 차이가 없거나(Panel A) 10배 차이인 경우의(Panel B) 모델 예측 성과를 나타낸 다. 그 결과는 전체 데이터에서의 양상과 상당히 유사하다. 예를 들어 예측 오류 비용의 차이가 없는 경우 Balanced accuracy는 로지스틱 회귀가 가장 높았고(<Table 8>, 경기소 비재: 0.905; <Table 9>, IT: 0.836), F1-score는 트리 기반 모델의 성과가 로지스틱 회귀보다 더 우수하였다. 부도 판 정률은 산업, 모델별로 0.058~0.191 범위 내였다. 반면에 예측 오류 비용이 10배 차이인 경우 각 모델마다 대체로 부도 판정률은 증가하였고(0.197~0.428) F1-score는 감소하 였는데, 그럼에도 불구하고 로지스틱 회귀(<Table 8>, 경기 소비재: 0.086; <Table 9>, IT: 0.065)에 비해 트리 기반 모델의 상대적으로 좋은 성과는 유지되었다.

    이러한 예측 성과를 선행연구의 결과와 비교하면 다 음과 같다. 첫째, Liang et al.(2020)의 부도예측 연구에 서는 미국 기업 데이터를 이용하여 예측 오류에 수반 되는 경제적 비용과 제안된 앙상블 모형(stacking ensembles) 의 예측 성과와의 관련성을 분석하였다. 이 연 구에서는 경제적 비용의 격차가 커짐에 따라 기본 (baseline) 모형과 제안(stacking ensembles) 모형의 성과 격차가 확대되는 것으로 나타나 부도예측 모형의 적용 시 비대칭적인 경제적 비용을 적절하게 고려해야 함을 강조하였다. 둘째, Park et al.[34]의 부도예측 연구에서 는 경제적 비용 차이를 고려하여 로지스틱 회귀(baseline), XGBoost, LightGBM 등 3개 모델의 성과를 대만과 폴란 드 기업의 데이터(부도율은 각각 3.20%와 3.85%)를 활용 하여 분석하였다. 이 연구에서 사용한 F1-score 기준의 성과는 비대칭 비용의 배수가 1에서 10까지 증가함에 따 라 로지스틱 회귀의 예측 성과는 크게 감소하였으나 XGBoost와 LightGBM의 경우 별로 변화하지 않아 로지 스틱 회귀의 성과와 차이가 크게 나타났다. 이와 같은 선 행연구의 결과는 본 연구에서 제시하는 결과와 마찬가지 로 개선된 트리 기반 예측모형의 좋은 성과와 함께 부도 예측 모형의 성능 평가에 있어 예측 오류의 경제적 비용 측면의 중요성을 확인하고 있다.

    5.3 SHAP을 이용한 결과 해석

    비대칭적인 예측 오류 비용을 고려했을 때 전반적으로 예측 성과가 좋은 XGBoost에 대해 ‘10배의 비용 차이’ 조 건에서 SHAP value를 계산하고 이를 기준으로 예측 결과 에 대한 경제적 의미 해석을 하였다. 데이터 전체에 대한 글로벌 설명을 얻기 위해 모든 개별 관측값에 대한 SHAP value를 평균하여 계산하였다.

    <Figure 1>은 경기소비재와 IT를 합한 산업 데이터에 대한 부도예측에 있어 사용된 21개 특성의 글로벌 평 균 SHAP value의 순으로 정렬하여 보여주고 있고, 또 한 예측의 방향성도 함께 나타낸다. 그리고 <Table 9> 는 산업 전체, 경기소비재, 그리고 IT 산업 데이터에 대한 결과를 별도로 보여주고 있다. 경기소비재 + IT (전체) 산업 데이터 기준으로 LOG/TA, NI/TA, OL/TA, FL/TA, RE/BE의 순으로 예측에 대한 기여도가 높았다. 그리고 전체 산업과 개별 산업에 대한 순위 결과를 비 교할 때 TL/MV와 S/CA를 제외한 8개의 특성은 개별 산업에 있어서도 기여도 상위 10위 이내여서 양 산업 모두에서 부도 예측의 설명력이 높은 것으로 나타났다. 이와 같이 하위 산업별 예측에서의 유사한 결과는 부 도 예측에 있어 이들 특성 변수의 중요성을 확인하는 결과라고 평가할 수 있다.

    global SHAP summary plot에서 예측 기여도 순으로 13 위 특성 변수인 NCA/TA의 경우 다른 특성 변수와 달리 SHAP value 범위의 양 극단 방향에 있는 관측치들은 모두 낮은 특성값을 갖는 관측치로 구성되어 있다. 이러한 복잡 한 관계를 보다 상세히 파악하기 위해 dependence plot을 살펴보았다(<Figure 2>). 그 결과, SHAP value 범위 상 양 극단 방향의 관측치들은 거의 RDE/ME(연구개발비/주식 시가총액 비율) 값들이 낮은 관측치이며, 이는 총자산 중 유형자산의 구성비율과 연구개발 지출과의 복잡한 관련성 을 시시한다(따라서 이에 대해서는 추가적인 연구가 필요 해 보인다).

    6. 결 론

    본 연구는 기업 부도예측 모델에 설명 가능한 인공지능 기법을 적용하여 예측 결과의 해석 가능성과 투명성을 높 이고자 하였다. 특히, 데이터 불균형 문제와 예측 오류에 따른 경제적 비용 비대칭성을 고려하여 불균형 샘플링 기 법(SMOTE-ENN) 및 비용 민감 학습 접근법을 통해 예측 성과를 분석하고자 했다. 연구의 주요 결과는 다음과 같 다. 첫째, 본 연구에서 활용한 네 가지 기계학습 모델(로지 스틱 회귀, 랜덤 포레스트, XGBoost, CatBoost)은 불균형 클래스 간 예측 오류 비용의 비대칭성의 정도와 사용된 성과평가 지표에 따라 모델 평가 결과가 매우 상이하다. 둘째, 예측 비용 비대칭성의 변화와 여러 평가 지표들을 고려했을 때 XGBoost와 CatBoost가 좋은 예측 성능을 보 였다. 특히, XGBoost는 테스트 데이터의 실제부도율과 부 도 판정률 간의 괴리가 가장 적게 나타나 클래스 불균형과 예측 비용의 비대칭성 하에서 좋은 예측 모형으로의 장점 을 보였다. 셋째, 설명 가능한 인공지능 기법인 SHAP을 통해 예측 기여도를 분석할 때, 총자산규모(LOG_TA), 총 자산 대비 순이익 비율(NI_TA), 총자산 대비 영업이익 비 율(OI_TA), 총자산 대비 부채 비율(FL_TA), 그리고 유보 이익률(RE_BE) 등이 부도예측에서 보다 중요한 특성 인 것으로 나타났다.

    본 연구는 기업 부도예측 모델의 적용을 통해 높은 예 측 성능 뿐 아니라 정보 이용자의 실제 의사결정 과정에 필요한 투명하고 신뢰할 수 있는 정보를 제공할 수 있는 방향을 제시하고자 하였다. 이와 같은 연구들은 신용평가 기관이나 금융기관에서 부도 위험을 선제적으로 관리하 고, 안정적인 재무 의사결정을 내리는 데 기여할 수 있을 것이다. 본 연구의 의의는 설명 가능한 인공지능 기법을 통해 부도예측 모델의 투명성과 신뢰성을 강화한 데 있다. 향후 연구에서는 다양한 산업군과 다른 특성 변수를 포함 하여 부도예측 모델의 일반화 가능성을 높이고, 예측 모델 의 성능을 더욱 심층적으로 검증하는 것이 필요할 것이다.

    Acknowledgement

    This work was supported by the Ministry of Education of the Republic of Korea and the National Research Foundation of Korea (NRF-2022S1A5C2A04 092540).

    Figure

    JKSIE-48-1-9_F1.gif

    global SHAP summary plot: Consumer cyclicals + IT

    JKSIE-48-1-9_F2.gif

    Dependence Plot for NCA_TA

    Table

    Sample Composition

    Composition of Features for Default Prediction

    Summary Statistics (Normal firms, NObs: 18,123)

    Summary Statistics (Default furms, NObs: 274)

    Summary Statistics (Train sample: (Nobs: 14,717, Default rate: 1.5%))

    Summary statistics (EMOTE-ENN resample: (NObs: 27,822, Default rate: 52.1%)

    Predictive performance: Consumer cyclicals + IT

    Predictive Performance: Consumer Cyclicals

    Predictive Performance: IT

    Global SHAP Value top 10: XGBoost (Cost ratio=10)

    Note: The eight features with ‘*’ rank among the top 10 in both Consumer cyclicals and IT samples.

    Reference

    1. Adadi, A. and Berrada, M., Peeking inside the black-box: a survey on explainable artificial intelligence (XAI), IEEE Access, 2018, Vol. 6, pp. 52138-52160.
    2. Ahn, J. H., XAI, Dissects Artificial Intelligence, Wiki Books, 2020.
    3. Ahn, Y.A. and Cho, H.J., A Study on XAI-based Clinical Decision Support System, Journal of the Korea Contents Association, 2021, Vol. 21, No. 12, pp. 13-22.
    4. Altman, E. I., Financial Ratios, Discriminant Analysis and the Prediction of Corporate Bankruptcy, The Journal of Finance, 1968, Vol. 23, No. 4, pp. 589-609.
    5. Babaei, G., Giudici, P., Raffinetti, E., Explainable Fintech Lending, SSRN: Amsterdam, The Netherlands, 2021.
    6. Bastani, O., Kim, C., and Bastani, H., Interpreting blackbox models via model extraction, arXiv preprint arXiv:1705.08504, 2017.
    7. Bentejac, C., Csorgo, A., and Martinez-Munoz, G., A comparative analysis of gradient boosting algorithms, Artificial Intelligence Review, 2021, Vol. 54, No. 3, pp. 1937-1967.
    8. Bracke, P., Datta, A., Jung, C., and Sen, S., Machine Learning Explainability in Finance: An Application to Default Risk Analysis; SSRN: Amsterdam, The Netherlands, 2019.
    9. Breiman, L., Random forests, Machine Learning, 2001, Vol. 45, No. 1, pp. 5-32.
    10. Burez, J. and Van den Poel, D., Handling class imbalance in customer churn prediction, Expert Systems with Applications, 2009, Vol. 36, No. 3, pp. 4626-4636.
    11. Charitou, A., Neophytou, E., and Charalambous, C., Predicting corporate failure: empirical evidence for the UK, European Accounting Review, 2004, Vol. 13, No. 3, pp. 465-497.
    12. Chawla, N.V., Bowyer, K.W., Hall, L.O., and Kegelmeyer, W.P., SMOTE: Synthetic Minority over sampling Technique, Journal of Artificial Intelligence Research, 2002, Vol. 16, pp. 321-357.
    13. Chen, T. and Guestrin, C., Xgboost: A scalable tree boosting system, In Proceedings of the 22nd ACM Sigkdd International Conference on Knowledge Discovery and Data Mining, 2016, pp. 785-794.
    14. Chun Y.E., Kim, S.B., Lee, J.Y., and Woo, J.H., Study on credit rating model using explainable AI, Journal of the Korean Data And Information Science Society, 2021, Vol. 32, No. 2, pp. 283-295.
    15. Doshi-Velez, F. and Kim, B., Towards a Rigorous Science of Interpretable Machine Learning. arXiv 2017
    16. Elkan, C., The foundations of cost-sensitive learning, In International Joint Conference on Artificial Intelligence, 2001, Vol. 17, No. 1, pp. 973-978, Lawrence Erlbaum Associates Ltd.
    17. Fawcett, T., An introduction to ROC analysis, Pattern Recognition Letters, 2006, Vol. 27, No. 8, pp. 861-874.
    18. Heo, S.W. and Baek, D.H., A Methodology for Bankruptcy Prediction in Imbalanced Datasets using eXplainable AI, Journal of Korean Society of Industrial and Systems Engineering, 2022, Vol. 45, No. 2, pp. 65-76.
    19. Hertz, J., Krogh, A., and Palmer, R., Introduction to the Theory of Neural Computing, New York: Addison Wesley, 1991.
    20. Hosmer Jr, D.W., Lemeshow, S., and Sturdivant, R. X., Applied logistic regression, John Wiley & Sons, 2013.
    21. Kim, S. and Ahn, H., Application of Random Forests to Corporate Credit Rating Prediction, Journal of Industrial Innovation, 2016, Vol. 32, No. 1, pp. 187-211.
    22. Kumar, P.R. and Ravi, V., Bankruptcy prediction in banks and firms via statistical and intelligent techniques-A revie, European Journal of Operational Research, 2007, Vol. 180, No. 1, pp. 1-28.
    23. Lee, I. and Kim, D., An evaluation of bankruptcy prediction models using accounting and market information in Korea, Asian Review of Financial Research, 2015, Vol. 28, No. 4, pp. 625-665.
    24. Liang, D., Tsai, C.F., Lu, H.Y.R., and Chang, L.S., Combining corporate governance indicators with stacking ensembles for financial distress prediction, Journal of Business Research, 2020, Vol. 120, pp. 137-146.
    25. Ling, C.X. and Sheng, V.S., Cost-sensitive learning and the class imbalance problem, Encyclopedia of Machine Learning, 2008, pp. 231-235.
    26. Lundberg, S.M. and Lee, S.I., A unified approach to interpreting model predictions, In Proceedings of the 31st International Conference on Neural Information Processing Systems, Long Beach, CA, USA, 4 December 2017, pp. 4768-4777.
    27. Lundberg, S.M. and Lee, S.I., Consistent feature attribution for tree ensembles. arXiv preprint arXiv:1706. 06060, 2017.
    28. Lysaght, T., Lim, H.Y., Xafis, V., Ngiam, K.Y., Freund, Y., and Schapire, R.E., A decision-theoretic generalization of on-line learning and an application to boosting, Journal of Computer and System Sciences, 1997, Vol. 55, No. 1, pp. 119-139.
    29. McQuown, J.A., A Comment on Market vs. Accounting- Based Measures of Default Risk, KMV Corporation Working Paper, 1993.
    30. Nam, C.W., Kim, T.S., Park, N.J., and Lee, H.K., Bankruptcy Prediction Using a Discrete-Time Duration Model Incorporating Temporal and Macroeconomic Dependencies, Journal of Forecasting, 2008, Vol. 27, No. 6, pp. 493-506.
    31. Odom, M.D. and Sharda, R., A neural network model for bankruptcy predic- tion, In IJCNN international joint conference on neural networks, San Diego, Cali- fornia, 17-21 June 1990, pp. 163-168, IEEE.
    32. Ohlson, J.A., Financial Ratios and the Probabilistic Prediction of Bankruptcy, Journal of Accounting Research, 1980, Vol. 18, No. 1, pp. 109-131.
    33. Olson, D.L., Delen, D., and Meng, Y., Comparative analysis of data mining methods for bankruptcy prediction, Decision Support Systems, 2012, Vol. 52, No. 2, pp. 464-473.
    34. Park, C., Jeon, S., & Yang, K., Default Prediction Modeling based on economic costs Minimization. Korean Finance Association Conference, 2023, pp. 585-618.
    35. Park, J.H., Kim, G.Y., Jung, G.M., Lee, H., and Choi, H., An Empirical Study on the Artificial Intelligence- Based Corporate Bankruptcy Prediction Model: Focusing on Improvements Reflecting the Characteristics of Time, Jounal of the Korea Society of Information Technology Policy & Management, 2023, Vol. 15, No. 2, pp. 3179-3188.
    36. Prokhorenkova, L., Gusev, G., Vorobev, A., Dorogush, A. V., and Gulin, A., CatBoost: Unbiased boosting with categorical features, Advances in Neural Information Processing Systems, 2018, Vol.31.
    37. Qian, H., Wang, B., Yuan, M., Gao, S., & Song, Y., Financial distress prediction using a corrected feature selection measure and gradient boosted decision tree. Expert Systems with Applications, 2022, 190, 116202.
    38. Quinlan, J.R., Induction of decision trees, Machine Learning, 1986, Vol. 1, No. 1, pp. 81-106.
    39. Ribeiro, B. and Lopes, N., Deep Belief Networks for Financial Prediction, In International Conference on Neural Information Processing, 2011. pp. 766-773
    40. Son, H., Hyun, C., Phan, D., & Hwang, H. J., Data analytic approach for bankruptcy prediction. Expert Systems with Applications, 2019, 138, 112816.
    41. Sun, Y., Kamel, M.S., Wong, A.K., and Wang, Y., Cost-sensitive Boosting for Classification of Imbalanced Data, Pattern Recognition, 2007, Vol. 40, No. 12, pp. 3358-3378.
    42. Tam, K.Y. and Kiang, M.Y., Managerial applications of neural networks: The case of bank failure predictions, Management Science, 1992, Vol. 38, No. 7, pp. 926-947.
    43. Tinoco, M.H. and Wilson, N., Financial Distress and Bankruptcy Prediction among Listed Companies Using Accounting, Market and Macroeconomic Variables, International Review of Financial Analysis, 2013, Vol. 30, pp. 394-419.
    44. Tran, K.L., Le, H.A., Nguyen, T.H., and Nguyen, D.T., Explainable Machine Learning for Financial Distress Prediction: Evidence from Vietnam, Data, 2022, Vol. 7, pp. 1-12.
    45. Utkin, L. and Konstantinov, A., Ensembles of random SHAPs, Algorithms, 2022, Vol. 15, No. 11, p. 431.
    46. Zhang, W., R&D Investment and Distress Risk, Journal of Empirical Finance, 2015, Vol. 32, pp. 94-114.
    47. Zoričák, M., Gnip, P., Drotár, P., and Gazda, V., Bankruptcy prediction for small-and medium-sized companies using severely imbalanced datasets, Economic Modelling, 2020, Vol. 84, pp. 165-176.
    48. Beaver, W.H., Financial Ratios as Predictors of Failure, Journal of Accounting Research, 1966, Vol. 4, pp. 71-111