Journal Search Engine
Search Advanced Search Adode Reader(link)
Download PDF Export Citaion korean bibliography PMC previewer
ISSN : 2005-0461(Print)
ISSN : 2287-7975(Online)
Journal of Society of Korea Industrial and Systems Engineering Vol.48 No.2 pp.132-143
DOI : https://doi.org/10.11627/jksie.2025.48.2.132

SOH Prediction of Lithium-Ion Batteries Using Optimized Deep Learning Ensemble Models

Youngseok Kwon*, Guhyun Kwon**, Daae Lee**, Dongju Lee*
*Department of Industrial Engineering, Kongju National University
**Chungnam Technopark
Corresponding Author : djlee@kongju.ac.kr
30/05/2025 25/06/2025 25/06/2025

Abstract


This study proposes a weighted ensemble deep learning framework for accurately predicting the State of Health (SOH) of lithium-ion batteries. Three distinct model architectures—CNN-LSTM, Transformer-LSTM, and CEEMDAN-BiGRU—are combined using a normalized inverse RMSE-based weighting scheme to enhance predictive performance. Unlike conventional approaches using fixed hyperparameter settings, this study employs Bayesian Optimization via Optuna to automatically tune key hyperparameters such as time steps (range: 10-35) and hidden units (range: 32-128). To ensure robustness and reproducibility, ten independent runs were conducted with different random seeds. Experimental evaluations were performed using the NASA Ames B0047 cell discharge dataset. The ensemble model achieved an average RMSE of 0.01381 with a standard deviation of ±0.00190, outperforming the best single model (CEEMDAN-BiGRU, average RMSE: 0.01487) in both accuracy and stability. Additionally, the ensemble's average inference time of 3.83 seconds demonstrates its practical feasibility for real-time Battery Management System (BMS) integration. The proposed framework effectively leverages complementary model characteristics and automated optimization strategies to provide accurate and stable SOH predictions for lithium-ion batteries.



최적화된 딥러닝 앙상블 모델을 활용한 리튬이온 배터리의 SOH 예측

권영석*, 권구현**, 이다애**, 이동주*
*공주대학교 산업공학과
**충남테크노파크

초록


    1. 서 론

    리튬이온 배터리는 에너지 밀도, 충·방전 효율, 수명 특 성 면에서 우수한 성능을 제공하며, 전기자동차(EV), 에 너지 저장 시스템(ESS), 휴대용 전자기기 등 다양한 산업 분야에서 핵심적인 에너지 저장 장치로 활용되고 있다. 이러한 시스템의 신뢰성과 안전성을 확보하기 위해서는 배터리의 상태를 정량적으로 진단하고, 잔존 수명(RUL; Remaining Useful Life)을 정확히 예측하는 기술이 필수적 이며, 이때 중심이 되는 지표가 바로 SOH(State of Health)이다. SOH는 초기 상태 대비 현재 상태의 상대적 잔존 성능을 나타내는 지표로, 배터리 성능 저하를 조기 에 감지하고 유지보수 시점을 결정하는 데 중요한 역할을 한다[4, 6]

    기존에는 열화 메커니즘에 기반한 물리 기반 모델이나 회귀 분석 기반의 통계적 접근법이 주로 활용되어 왔다. 하지만 이러한 방법들은 리튬이온 배터리의 복잡하고 비 선형적인 열화 특성, 환경 변화에 따른 민감도, 신호의 불 안정성과 같은 요소를 충분히 반영하기 어려워 실제 운용 환경에서 예측 정확도에 한계가 있다[3]. 이러한 한계를 극복하기 위해 최근에는 딥러닝을 활용한 데이터 기반 접 근 방식이 각광받고 있으며, CNN-LSTM, Transformer, GRU 등 다양한 시계열 예측 모델이 배터리 SOH 예측 문 제에 효과적으로 적용되고 있다[2, 10, 12].

    그러나 단일 딥러닝 모델은 특정 구조의 장점에만 국한 되어 있어, 다양한 시간 스케일에서 발생하는 고주파 잡 음, 시계열 불규칙성, 신호 비정상성과 같은 복합적 특성 을 동시에 효과적으로 처리하기에는 구조적 한계가 존재 한다. 여기서 시계열 불규칙성은 데이터가 일정한 주기나 패턴 없이 변화하는 특성을 의미하고, 신호 비정상성은 평 균이나 분산 등의 통계적 특성이 시간에 따라 변화하는 현상을 지칭한다. 이러한 특성은 배터리의 열화 과정에서 빈번히 나타나며, 예측 모델의 학습 안정성과 정밀도에 부 정적인 영향을 미칠 수 있다. 이에 따라 최근에는 이러한 시계열의 복잡성을 완화하고 예측 성능을 향상시키기 위 해, 시계열 분해 기법과 딥러닝 모델을 결합한 하이브리드 구조 또는 복수의 예측 결과를 통합하는 앙상블 기법이 활발히 연구되고 있다.

    특히 CEEMDAN(Complete Ensemble Empirical Mode Decomposition with Adaptive Noise)은 시계열을 내재 모드 함수(IMF)로 분해하여 고주파와 저주파 성분을 분리·학습 함으로써 예측의 안정성과 정밀도를 향상시키는 데 효과 적인 방법으로 주목받고 있다[8, 9].

    본 연구에서는 이러한 문제 인식을 바탕으로 세 가 지 딥러닝 기반 모델(CNN-LSTM, Transformer-LSTM, CEEMDAN-BiGRU)을 구성하고, 이들의 예측 결과를 RMSE 역수 기반의 가중 앙상블 방식으로 통합하여 SOH 예측 정밀도를 향상시키고자 한다. 실험은 NASA 의 B0047 리튬이온 배터리 데이터를 기반으로 수행되었 으며, 입력 시계열 길이(time steps)와 은닉 노드 수 (hidden units)를 조합한 총 6개의 수작업 조건(실험 1)과 Optuna 기반의 Bayesian Optimization을 통한 자동 하이 퍼파라미터 탐색(실험 2)을 비교 분석하였다. 이를 통해 구조 간 상대 성능을 정량화하고, 자동 최적화 기법의 효 과성을 실험적으로 검증하였다.

    본 연구는 복수의 예측 구조와 최적화 기법을 통합한 딥러닝 앙상블 전략이 배터리 SOH 예측 정밀도 향상에 실질적으로 기여할 수 있음을 실증하였으며, 향후에는 다변량 센서 데이터 통합, 실시간 예측 시스템 연계, BMS 적용 가능성 등 다양한 확장 방향성을 제시한다[1, 5, 7, 11].

    2. 관련 연구

    리튬이온 배터리의 SOH(State of Health) 예측은 전통적 인 기계학습 기법부터 최신 딥러닝 기반 구조에 이르기까 지 다양한 접근법을 통해 활발히 연구되고 있다. 초기 연 구들은 선형 회귀, 서포트 벡터 회귀(SVR), 랜덤 포레스트 (RF), 그래디언트 부스팅 머신(GBM) 등 비교적 단순한 모 델을 활용하여 빠른 학습과 해석 가능성이라는 장점을 보 였으나, 고차원 시계열 데이터의 비선형성과 장기 의존성 을 충분히 반영하는 데에는 한계가 존재하였다[11]. 여기 서 장기 의존성 학습이란, 시계열 데이터 내 과거의 정보 가 오랜 시간 이후의 예측에 영향을 미치는 관계를 학습하 는 것으로, 이는 배터리의 누적 열화 패턴이 장기간에 걸 쳐 예측 정확도에 결정적인 영향을 미치는 SOH 예측 문제 에서 핵심적인 요소로 작용한다.

    이러한 한계를 보완하기 위해 최근에는 딥러닝 기반의 시계열 예측 모델이 SOH 예측 분야에서 주목받고 있다. 대표적으로 LSTM과 GRU는 장기 종속성 문제를 효과적으 로 해결하는 순환 신경망(RNN) 구조로 널리 활용되고 있으 며, CNN-LSTM은 입력 시계열의 지역적 특징을 CNN으로 추출한 후 LSTM을 통해 시간적 상관성을 학습하는 하이브 리드 구조로 활용된다. Cheng et al.[2]은 CNN-LSTM을 활용 하여 배터리 RUL(Remaining Useful Life) 예측의 정확도를 향상시켰으며, Xiang et al.[10]은 BiLSTM 기반의 건강 지표 추출 방식으로 SOH 예측 성능을 개선하였다.

    Transformer 구조는 Self-Attention 기반의 Multi-Head Attention 메커니즘을 활용하여 시계열 내 전역적 관계를 효율적으로 학습할 수 있는 구조로, 특히 장기 의존성과 시계열 내 상관관계를 효과적으로 반영할 수 있는 장점을 가진다. Self-Attention 메커니즘은 입력 시퀀스의 각 위치 가 다른 모든 위치와의 관계를 동적으로 학습함으로써, 다 양한 시간 스케일에서 발생하는 특징을 병렬적으로 처리 할 수 있게 하며, 기존 RNN 계열 모델의 순차적 처리 구조 가 가지는 정보 소실 및 계산 병목 문제를 효과적으로 극 복한다. 이러한 구조적 특성은 긴 시계열 데이터에서도 학 습 안정성을 유지하게 하며, 연산 효율성과 모델 병렬화 측면에서도 우수한 성능을 발휘할 수 있게 한다. Zhao et al.[12]은 Transformer 기반 구조를 리튬이온 배터리의 SOH 예측에 적용하여, 기존 LSTM 대비 높은 예측 정확 도와 학습 효율을 달성하였음을 보고하였다.

    최근에는 시계열 분해 기법과 딥러닝 모델을 결합한 하이 브리드 프레임워크에 대한 연구도 활발히 진행되고 있다. CEEMDAN(Complete Ensemble Empirical Mode Decomposition with Adaptive Noise), EMD(Empirical Mode Decomposition), VMD(Variational Mode Decomposition)와 같은 기 법은 비선형적이고 비정상적인 원시 SOH 데이터를 IMF(내 재 모드 함수)로 분해함으로써, 각각의 성분을 독립적으로 예측할 수 있는 기반을 제공한다. Jung and Heo[3]는 CEEMDAN-BiLSTM 구조를 적용하여 분해된 IMF를 기반 으로 예측 정밀도를 향상시켰으며, Li et al.[8]은 ABC 최적 화 알고리즘과 BiGRU를 결합하여 기존 GRU 대비 20% 이 상의 RMSE 감소 효과를 보고하였다. Wu et al.[9]은 상용 배터리 셀(Samsung 35E)에 다양한 딥러닝 예측 모델을 적용 하여 실제 환경 예측의 유효성을 입증하였고, Khan et al.[5] 역시 실제 열화 데이터를 활용한 예측 실험을 통해 CNN 및 LSTM 기반 모델의 성능을 정량적으로 비교하였다.

    SOH 예측 결과의 시스템적 활용 가능성에 대한 연구도 진행 중이다. Li et al.[7]은 예측된 SOH 정보를 기반으로 하이브리드 전기차(HEV)의 에너지 관리를 최적화하기 위 한 게임이론 기반 전략을 제안하였으며, 이로써 상태 예측 기술이 단순한 진단 도구를 넘어 시스템 제어와 운영 최적 화로 확장될 수 있음을 시사하였다.

    본 연구는 이러한 선행 연구들을 기반으로, CNN-LSTM, Transformer-LSTM, CEEMDAN-BiGRU의 구조적 장점을 통합한 복합 딥러닝 프레임워크를 설계하고, 예측 성능에 기반한 가중 앙상블 전략을 추가함으로써 SOH 예측의 정밀 도와 일반화 성능을 동시에 확보하고자 한다. 특히 CEEMDAN 기반 시계열 분해와 BiGRU 예측기의 결합은 비선형 신호 해석에 적합한 방식으로, 기존 연구 대비 구조 적 차별성과 실험적 유효성을 동시에 입증하였다.

    3. 방법론

    본 연구의 핵심은 세 가지 딥러닝 예측 모델(CNN-LSTM, Transformer-LSTM, CEEMDAN-BiGRU)을 기반으로 각 구조의 장점을 활용하고, 성능 기반의 가중 앙상블을 통해 최종 예측의 정밀도를 극대화하는 데 있다.

    3.1 데이터 및 전처리

    본 연구에서는 NASA Ames Prognostics Center of Excellence(PCoE)에서 공개한 리튬이온 배터리 데이터셋 중 B0047 셀의 방전 시계열 데이터를 활용하였다. 해당 데이터는 다양한 실험 조건에서 수집된 배터리 셀의 전압, 전류, 온도, 용량 등의 정보를 포함하고 있으며, 배터리 성 능 저하를 분석하고 예측하는 데 널리 사용되고 있다.

    해당 데이터는 일정 전류와 온도 조건에서 주기적인 충· 방전을 수행하며, 사이클별로 측정된 방전 용량(Capacity) 데이터를 포함하고 있다. 배터리의 상태를 정량적으로 표 현하는 SOH(State of Health)는 다음과 같이 정의된다.

    S O H i = C i C 0 , i = 1 , 2 , , n
    (1)

    • Ci : : i번째 사이클에서의 방전 용량

    • C0 : 초기 용량

    대부분의 SOH 예측 연구에서 채택된 대표적인 정의 방 식이다[2, 4].

    본 연구에서는 총 132개의 사이클 중 결측값을 제거하 고, 정렬된 형태로 시계열을 구성하였다.

    SOH 변화가 급격하게 발생하는 일부 구간은 센서 노이 즈나 환경 요인에 의한 이상치로 판단하였다. 이를 제거하 기 위해 SOH 변화량(ΔSOH)의 절대값 기준 상위 1%를 이상치로 간주하고 필터링하였다.

    이후, 전체 데이터를 훈련(60%), 검증(20%), 테스트 (20%) 비율로 분할하였다. 본 연구에서는 시계열 데이터 의 시간적 순서를 고려하여 분할 시 데이터의 무작위 섞 기(shuffle)를 적용하지 않고, 순차적으로 앞부분부터 훈 련, 중간 구간을 검증, 후반부를 테스트 데이터로 구성하 였다.

    이러한 방식은 미래 정보를 과거 학습에 노출시키지 않 도록 방지하며, 예측 모델의 일반화 성능을 보다 타당하게 평가할 수 있도록 설계된 것이다.

    특히, 검증 데이터는 하이퍼파라미터 최적화(Optuna 기 반)와 앙상블 가중치 산정을 위한 성능 기준(RMSE)으로 사용되며, 테스트 데이터는 최종 예측 성능을 평가하기 위 한 독립적인 검증용으로만 활용되었다.

    이후, 전체 SOH 데이터를 MinMaxScaler로 0~1 구간으 로 정규화하였고, 훈련 구간의 통계값으로만 transformer 하여 테스트 데이터에 적용함으로써 데이터 누설을 방지 하였다.

    3.2 딥러닝 기반 예측 모델 구조

    본 연구에서 구조적 특성이 상이한 세 가지 딥러닝 모델을 예측기로 채택하였다. 각각의 모델은 시계열의 특성을 다르게 해석하며, 예측에 기여하는 방식이 상이 하다.

    3.2.1 CNN-LSTM

    CNN-LSTM은 입력 시계열 구간에서 지역적인 패턴을 추출하는 CNN 계층과, 시간 순서를 고려한 장기 의존성 을 학습하는 LSTM 계층으로 구성된다. 이 모델은 다양한 시계열 예측 문제에서 적용된 바 있으며, 배터리 열화 예 측에서도 높은 성능을 보인 바 있다[2, 10].

    <Figure 1>은 CNN-LSTM 기반의 SOH 예측 모델 구조 를 나타낸다. 입력 시계열 데이터는 Conv1D 레이어를 통 해 지역적인 특성을 추출하며, 커널 크기(kernel size)는 2 로 고정되고 필터 수는 하이퍼파라미터로 지정된 hidden_ units 값에 따라 설정된다. Conv1D 출력을 받아 LSTM 레이어에서 시계열 내 장기 의존성을 학습하고, 이 어지는 Dense 레이어를 통해 단일 출력 값으로 변환되어 최종적으로 SOH를 예측하게 된다.

    • Conv1D: 입력 시계열에서 짧은 구간의 지역적 패턴을 커널로 추출한다.

    • LSTM: Conv1D가 추출한 특징맵의 시간적 흐름을 학습 하여 기계열 구조로 반영한다.

    • Dense: LSTM의 출력을 기반으로 하나의 SOH 예측값 을 산출한다.

    예측 수식은 다음과 같다.

    y C N N L S T M ( t ) = f L S T M ( C N N ( x ( t T + 1 ) , , x ( t ) ) )
    (2)

    • y ^ C N N L S T M ( t ) : 시점 t에서 CNN-LSTM모델이 예측한 SOH값

    • T : 시계열 입력 길이, 모델에 입력되는 과거 시점의 개수

    • x(t -T + 1),⋯ x(t) : 시점 t-T+1부터 t까지의 입력 시계 열 데이터

    • CNN : Conv1D 연산으로 시계열의 지역 특증을 추출

    • fLSTM: 이 특징을 바탕으로 다음 시점의 SOH를 예측 CNN은 노이즈 억제 효과도 제공한다.

    3.2.2 Transformer-LSTM

    Transformer-LSTM은 self-attention 기반의 Multi-Head Attention(MHA)을 통해 전체 입력 시계열의 전역 상관관 계를 학습한 후, LSTM 계층에서 시계열적 흐름을 반영하 는 구조이다. Attention 기반 구조는 긴 시계열 입력에서도 성능이 우수하며, 계산 병렬화에도 강점을 가진다[9, 12].

    <Figure 2>는 Transformer-LSTM 기반의 모델 구조를 시 각화한 것이다. 입력 시계열은 먼저 Multi-Head Attention 레이어를 통해 다양한 관점의 시계열 특성을 병렬로 추출하 며, 이때 num_heads는 4, key_dim은 hidden_units/16으로 설정된다.

    이어지는 Layer Normalization은 학습 안정성을 확보하 며, 그 다음 단계인 LSTM은 시계열의 시간적 흐름을 반영 한 특성 표현을 수행한다. Dense 레이어를 통해 최종 예측 값인 SOH가 산출된다.

    • Multi-Head Attention: 입력 시계열 내 각 시점 간의 상관관 계를 동적으로 학습하는 self-attention 메커니즘이다.

    • LayerNormalization: Attention 연산 후의 출력을 정규화 함으로써 학습 안정성 및 수렴속도 를 향상 시킨다.

    • LSTM: Attention결과를 기반으로 시계열의 순차적 특 성을 학습한다.

    • Dense: 최종 LSTM 출력 벡터를 단일 예측값(SOH 예 측)으로 변환하는 Fully Connected Layer이다.

    이 모델은 장기 시계열 의존성과 전역적 상관관계에 강 점을 가지며, 특히 시계열 길이가 길수록 예측 안정성이 증가한다.

    y C N N L S T M ( t ) = f L S T M ( C N N ( x ( t T + 1 ) , , x ( t ) ) )
    (3)

    Zhao et al.[12]은 Transformer 기반의 SOH 예측 모델 이 기존 RNN보다 우수한 정확도를 기록한 바 있으며, 본 연구는 이를 기반으로 LSTM과의 결합 구조를 설계 하였다.

    3.2.3 CEEMDAN-BiGRU

    CEEMDAN (Complete Ensemble Empirical Mode Decomposition with Adaptive Noise)은 비선형·비정상 시계 열 데이터를 IMF(내재 모드 함수)로 분해하여 고주파 및 저주파 성분을 효과적으로 분리하는 방법으로, 기존 EMD 및 EEMD 기법의 한계를 보완하여 노이즈 제거 및 안정적 인 학습 성능에 강점을 가진다[6]. Kwon[6]의 연구에서는 EMD와 CNN-LSTM을 결합한 구조를 통해 시계열 분해 기반 배터리 수명 예측 가능성을 제시하였다. 본 연구는 이를 기반으로 분해 방식을 CEEMDAN으로 확장하고, 예 측기 구조를 BiGRU로 대체하여 모델의 예측 정밀도 향상 을 도모하였다.

    x ( t ) = k = 1 K I M F k ( t ) + r ( t )
    (4)

    • x(t) : 원래의 SOH 시계열 데이터(입력)

    • IMFk (t) : k번째 내재 모드 함수

      ( r i n s i c M o d e F u n c t i o n )

    • r(t) : CEEMDAN 분해 후 남은 잔차(residual)

      y C E E M D A N B i G R U ( t ) = k = 1 K f B i G U R k ( I M F k ( t T + 1 : t ) )
      (5)

    • y ^ C E E M D A N B i G R U ( t ) : 최종 예측 SOH

    • f B i G R U k : k번째 IMF 에 대해 학습된 BiGRU 예측 함수

    • IMFk (t - T + 1 : t) : 시점 t까지의 IMF 시계열

      ( w i n d o w s i z e = T )

    이 과정을 통해 원시 시계열의 복잡성과 노이즈를 완화 하며, 각 주파수 대역을 세분화하여 정밀한 예측을 가능하 게 한다.

    BiGUR는 양방향 구조로, 시계열의 과거 및 미래 정보 를 동시에 반영하여 IMF 성분의 방향성을 보다 정밀하게 학습할 수 있다.

    <Figure 3>은 일반적인 딥러닝 모델이 원시 시계열을 직접 예측하는 대신 시계열을 IMF 단위로 분해하고, 각 IMF를 개별 예측한 후, 이를 다시 합산함으로써 노이즈 제거와 예측 정밀도 향상을 동시에 달성하였다.

    3.3 하이퍼파라미터 최적화(Optuna의 Bayesian Optimization 알고리즘)

    딥러닝 기반 예측 모델의 성능은 하이퍼파라미터 설정 에 민감하게 반응하며, 이들의 적절한 조합을 탐색하는 과 정은 예측 정밀도 향상과 모델의 일반화 능력 확보에 있어 핵심적인 역할을 수행한다. 본 연구에서는 입력 시계열 길 이(time steps)와 은닉층 노드 수(hidden units)를 주요 하이 퍼파라미터로 설정하고, 이들에 따른 성능 차이를 실험적 으로 분석하였다.

    기존의 Grid Search 및 Random Search 기법은 구현이 단순하다는 장점이 있으나, 고차원의 탐색 공간에서 계산 자원이 과도하게 소모되고 탐색 효율이 낮다는 한계를 가 진다. 이를 극복하기 위하여 본 연구에서는 Bayesian Optimization 기반의 자동 하이퍼파라미터 튜닝 프레임워 크인 Optuna를 도입하였다.

    Bayesian Optimization은 사전 정의된 모든 조합을 탐색 하는 방식과는 달리, 이전 실험 결과를 바탕으로 다음 탐 색 지점을 선택하는 확률 모델 기반의 순차적 최적화 전략 이다. 이 접근법은 성능이 기대되는 조합을 우선적으로 평 가함으로써, 전체 탐색 횟수를 줄이고도 높은 예측 성능을 확보할 수 있다.

    특히 Optuna는 define-by-run 구조를 채택하고 있다. 이 는 기존의 define-and-run 구조처럼 실험 이전에 전체 탐색 공간을 고정하는 방식과 달리, 코드 실행 중 실험 흐름에 따라 조건을 동적으로 정의하고 조정할 수 있는 구조이다. 이로 인해 복잡한 조건 분기나 실험 흐름 제어가 용이하 며, 모델 구조나 데이터 상황에 따라 유연하게 하이퍼파라 미터 탐색을 구성할 수 있다.

    또한 Optuna는 탐색 도중 중간 성능 평가를 수행하여, 성능 개선 가능성이 낮다고 판단되는 실험은 조기에 종료 (early stopping) 시킨다. 이 기능은 실험 효율성을 극대화 하고, 계산 자원의 낭비를 방지하는 데 유용하다. 예컨대, 학습 초반 RMSE가 기준 이하로 개선되지 않는 경우, 해당 trial을 종료하고 새로운 탐색으로 전환한다. 반대로, 이미 최적에 수렴한 경우 불필요한 반복 실험을 차단하여 탐색 시간을 단축한다.

    <Figure 4>는 Optuna의 탐색 절차를 시각적으로 도식화 한 결과로, 초기 탐색(Exploration)과 이후의 수렴 (Exploitation) 과정이 반복되며 성능이 향상되는 과정을 보여준다.

    Akiba et al.[1]은 Optuna가 기존의 그리드 탐색(Grid Search), 랜덤 탐색(Random Search), 그리고 기존의 베이지 안 최적화 라이브러리 대비 탐색 효율성과 최종 성능 측면 에서 우수한 결과를 나타냈음을 보고하였다. Optuna는 특 히 define-by-run 방식을 채택하여 사용자 정의 모델 구조 와 동적으로 상호작용할 수 있으며, 이로 인해 복잡한 딥 러닝 하이퍼파라미터 공간에서도 유연하게 작동할 수 있 는 구조적 강점을 가진다. 또한 Early Stopping을 활용한 Trial Pruning, 병렬 연산 지원 등 실용적인 기능이 포함되 어 있어 실제 실험 시간 단축에도 크게 기여할 수 있다. 본 연구에서도 이러한 Optuna의 특징을 활용하여, time steps와 hidden units의 최적 조합을 자동 탐색하고, 반복 실험 기반의 신뢰성 높은 성능 평가를 수행하였다.

    3.4 가중 앙상블

    세 모델의 예측 결과는 검증 구간에서 RMSE(Root Mean Square Error)를 산출한 후, 이를 역수 기반 가중치로 변환하여 앙상블에 반영한다. 이는 기존의 단순 평균 방식 보다 예측력이 우수한 모델의 기여도를 강조할 수 있다는 점에서 효과적인 방식으로 보고되어 왔다[5, 9].

    RMSE는 예측값과 실제값 간의 차이를 제곱한 후 평균 을 취하고, 그 제곱근을 취한 값으로, 오차의 평균 크기를 의미하는 대표적인 회귀 성능 지표이다. 수식적으로는 다 음과 같이 표현된다.

    RMSE i = 1 N j = 1 N ( y j y i , j ) 2
    (6)

    모델별 RMSE 계산

    • RMSEi : 예측모델 iRMSE

    • N: 테스트 테이터셋의 총 사이클 수

    • y ^ i , j : i번째 모델의 j시점 예측값

    • yj: 실제값

    • 역수 기반 정규화 가중치 계산

      w i = 1 RMSE i j = 1 M 1 R M SE j
      (7)

    • wi : 모델 i의 앙상블 가중치

    • M : 앙상블에 포함된 전체 모델수(본 연구에서는 3개)

    • RMSEj: 모델 j의 RMSE

    성능이 우수한(작은 RMSE) 모델일수록 큰 가중치를 갖 도록 설계되었으며, 전체 모델 성능의 기여도를 반영한다.

    최종 앙상블 예측값 계산

    y ^ e n s e m b l e ( t ) = i = 1 M w i · y ^ i ( t )
    (8)

    • y ^ e n s e m b l e ( t ) : 시점 t에서의 최종 앙상블 예측값

    • wi : 모델 i의 가중치

    • y ^ i ( t ) : 모델 i가 예측한 시점 tSOH

    • M : 전체 모델 수

    각 예측값에 가중치를 곱하여 최종 예측값을 산출함으 로써, 모델 간 상호보완적 강점을 활용하였다.

    <Figure 5>와 같이 입력된 배터리 SOH 시계열 데이터 는 세 가지 딥러닝 모델 구조에 동시에 전달되어 예측된 다. CEEMDAN-BiGRU는 시계열 분해 후 각 IMF에 대해 개별 BiGRU 모델을 적용하고 결과를 합산한다. 각 모델 의 예측 결과는 검증 구간에서 계산된 RMSE 역수를 기반 으로 가중치를 부여받아 최종적으로 하나의 앙상블 예측 SOH값으로 통합된다.

    3.5 데이터 분할 및 반복 실험 설계

    모델 학습과 성능 평가의 신뢰성과 재현성을 확보하기 위해, 본 연구에서는 전체 시계열 데이터를 사전에 훈련 (Training), 검증(Validation), 테스트(Test) 구간으로 구분하 고, 각 구간에 명확한 역할을 부여하였다. 데이터는 시간 순서를 유지한 상태로 6:2:2의 비율로 나누어, 실제 배터리 열화 과정과 유사한 조건 하에서 학습 및 평가가 이루어지 도록 설계하였다.

    훈련 구간은 예측 모델의 내부 가중치를 최적화하는 데 활용되며, 검증 구간은 Bayesian Optimization 기반의 Optuna 프레임워크를 통해 하이퍼파라미터를 탐색하고, 성능 기반 가중 앙상블 가중치를 산정하는 데 사용되었다. 테스트 구간은 앞선 모든 학습 및 튜닝 과정을 배제한 상 태에서 최종 모델의 일반화 성능을 평가하는 데 활용된다. 이러한 구조는 과적합을 방지하고, 실사용 환경과 유사한 조건에서 예측 모델의 실효성을 검증할 수 있도록 한다.

    또한, 단일 실험 결과에 대한 과도한 의존을 피하고 모 델의 평균적 성능 특성을 검토하기 위해, 본 연구는 서로 다른 난수 시드(seed)를 부여한 상태에서 전체 실험을 10 회 반복 수행하였다. 시드 값은 각 반복 실험마다 고정되 며, 이로 인해 Optuna의 초기 탐색 경로와 하이퍼파라미터 선택, 모델 학습 초기 가중치 등이 매번 달라지게 된다. 이러한 설정은 딥러닝 기반 모델이 갖는 내재적 불확실성 과 최적화 경로의 비결정성(nondeterminism)을 반영함으 로써, 실제 응용 환경에서의 성능 안정성을 더욱 정밀하게 측정할 수 있게 한다.

    반복 실험의 결과는 각 모델의 성능(RMSE), 학습 및 추 론 시간, 최적 하이퍼파라미터 조합 등의 항목에 대해 개 별 기록되며, 실험 간 변동성과 평균적인 경향을 함께 분 석하였다. 특히 앙상블 모델은 반복 실험 전반에서 상대적 으로 낮은 평균 RMSE와 작은 표준편차를 보여, 재현성과 예측 안정성 측면에서 개별 모델 대비 우수한 결과를 나타 냈다.

    이와 같은 반복 기반 실험 설계는 단발성 실험의 편향 을 제거하고, 알고리즘 선택 및 하이퍼파라미터 탐색 결과 의 신뢰도를 높이는 데 기여하였다. 이는 실제 산업 응용 환경에서 동일한 모델 구조를 재적용할 경우, 유사한 성능 을 안정적으로 확보할 수 있음을 시사하며, 본 연구가 제 안하는 예측 프레임워크의 실효성을 뒷받침하는 중요한 근거가 된다.

    이러한 반복 실험을 통해 도출된 모델별 RMSE 분포는 <Figure 6>에 시각적으로 제시하였다. Boxplot 결과에 따 르면, 세 가지 개별 모델의 예측 성능은 일부 편차를 보였 으나 전반적으로 안정적인 성능 범위를 유지하였다. 특히, 앙상블 모델의 경우, 전체 실험에서 가장 낮은 RMSE 범위 를 보이며 세 모델의 강점을 효과적으로 통합했음을 확인 할 수 있다.

    4. 실험 및 결과

    4.1 실험 설계

    본 연구는 리튬이온 배터리의 SOH(State of Health)를 정밀하게 예측하기 위한 실험을 설계함에 있어, NASA Ames Prognostics Center에서 제공하는 B0047 셀의 실측 데이터를 활용하였다. 전체 시계열 데이터를 기반으로 훈 련(Training), 검증(Validation), 테스트(Test) 구간을 6:2:2 의 비율로 분할하여 구성하였으며, 훈련 데이터는 모델 학 습에, 검증 데이터는 하이퍼파라미터 탐색 및 앙상블 가중 치 산정에, 테스트 데이터는 모델의 일반화 성능을 평가하 는 데 사용되었다.

    실험은 하이퍼파라미터 설정 방식에 따라 두 가지 실험 군으로 구분된다.

    실험 1에서는 주요 하이퍼파라미터인 입력 시계열 길이 (time steps)와 은닉층 노드 수(hidden units)를 사전 정의된 조합으로 설정하여, 수동 방식에 따른 모델 성능을 비교 분석하였다.

    실험 2에서는 Bayesian Optimization 기반의 Optuna 프 레임워크를 도입하여 동일한 하이퍼파라미터 공간 내에서 최적 조합을 자동으로 탐색하였다. 이를 통해 기존 수동 방식 대비 성능 향상 가능성을 검증하고자 하였다.

    모든 실험은 CNN-LSTM, Transformer-LSTM, CEEMDANBiGRU의 세 가지 시계열 예측 모델을 공통적으로 적용하 였으며, 각 모델로부터 도출된 예측값에 대해 RMSE의 역 수 기반 가중치를 적용한 가중 평균 방식의 앙상블 전략을 통해 최종 SOH 예측 결과를 산출하였다. 또한 예측 성능 의 재현성과 신뢰성을 확보하기 위해 동일 실험을 10회 반 복 수행하였으며, 각 반복에서 모델의 학습 시간과 추론 시 간을 측정하여 모델 효율성까지 정량적으로 평가하였다.

    모든 실험은 다음과 같은 공통 학습 조건하에서 수행되 었다.

    • - 데이터 분할은 훈련:검증:테스트를 6:2:2 비율로 설정

    • - 학습 반복 횟수(Epochs): 300

    • - 배치 크기(Batch Size): 32

    • - 최적화 기법: 학습률 0.01의 Adam Optimizer를 사용

    • - 데이터 정규화: MinMaxScaler 활용

    • - 데이터 누설을 방지하기 위해 테스트 데이터의 정규 화는 오직 학습 데이터에서 계산된 통계값만을 기준 으로 적용

    이러한 실험 설계는 동일한 조건에서 하이퍼파라미터 탐색 방식만을 달리하여 모델 성능과 실행 효율을 정량적 으로 비교․분석하고, 앙상블 기법의 예측 성능 향상 효과 를 검증하는 데 목적이 있다.

    4.2 실험결과

    모델의 예측 성능 평가는 Root Mean Square Error (RMSE)를 기준으로 수행하였다. RMSE는 실제값과 예측 값 간 오차의 평균 제곱에 제곱근을 취한 지표로, 본 연구 전반에 걸쳐 일관된 성능 비교 기준으로 사용된다.

    4.2.1 실험 1(수동 하이퍼파라미터 조합)

    <Table 2>와 <Table 3>은 입력 시계열 길이(time steps, t)와 은닉층 노드 수(hidden units, m)의 조합에 따른 세 가지 예측 모델(CNN-LSTM, Transformer-LSTM, CEEMDANBiGRU) 및 앙상블 모델의 RMSE 성능을 정리한 것이다. 여기서 t는 입력으로 사용되는 시계열의 길이를, m은 딥러 닝 모델 내부의 표현 능력을 좌우하는 은닉 노드 수를 의 미한다.

    <Table 2>는 m=64 조건에서 수행된 결과로, CEEMDANBiGRU는 모든 t 설정에서 가장 낮은 RMSE를 기록하였으 며, 특히 t=20에서 0.01368로 가장 우수한 단일 성능을 보 였다. 반면, Transformer-LSTM은 t=10에서 0.3893의 높은 RMSE를 기록해, 적은 입력 길이 및 작은 모델 구조에서는 학습 불안정성이 존재함을 보여준다. 가중 앙상블 모델은 t=15에서 0.01292로 최저 RMSE를 기록하였으며, 이는 해 당 조합에서 단일 모델 대비 약 15% 이상의 예측 성능 개 선을 의미한다.

    <Table 3>의 m=128 실험에서는 전체적으로 RMSE가 감소하며, 모델의 성능이 향상되는 경향을 보인다. CEEMDAN-BiGRU는 t=20에서 0.01168의 최저 단일 모델 성능을 기록하였으며, 앙상블 모델은 같은 조건에서 0.01158로 전체 실험 중 가장 우수한 예측 결과를 달성하 였다. 이는 모델 간 상호보완적 특성을 반영한 앙상블 전 략이 단일 모델보다 예측 성능 측면에서 효과적임을 실증 적으로 보여준다.

    특히 CNN-LSTM의 경우, hidden units 증가에 따라 성 능이 크게 향상되었는데, t=10 조건에서 RMSE가 0.02547 에서 0.01841로 약 27.7% 감소하였다. 이는 더 많은 은닉 노드 수가 시계열 패턴을 더욱 정교하게 학습할 수 있도록 돕는다는 점을 시사한다.

    종합하면, CEEMDAN-BiGRU는 하이퍼파라미터 설정 에 관계없이 consistently 최상의 단일 성능을 보여주었고, 앙상블 기법은 전 조합에서 단일 모델을 능가하는 RMSE를 기록하였다. 특히 t=20, m=128 조건의 앙상블 결과는 본 연구 실험 1 전체에서 최저 RMSE(0.01158)를 나타내며, 제안한 가중치 기반 앙상블 기법의 우수성을 뒷받침한다.

    <Figure 7>는 6가지 하이퍼파라미터 조합별 RMSE 추 이를 선형 그래프로 나타낸 것이다. Transformer-LSTM은 전체적으로 높은 RMSE를 기록하였으며, 안전성이 가장 낮았다. CEEMDAN-BiGRU는 조합에 관계없이 일관된 성 능을 유지하며, 가장 낮은 RMSE값을 형성하였다. 가중 앙 상블 모델은 전 구간에서 균일하게 가장 낮은 RMSE값을 형성하였다.

    4.2.2 실험 2(optuna 기반 자동 최적화 및 반복 실험)

    본 실험에서는 하이퍼파라미터 자동 최적화 기법인 Optuna의 Bayesian Optimization 알고리즘을 활용하여, 예 측 성능을 극대화할 수 있는 조합을 효율적으로 탐색하였 다. 탐색 대상 변수는 입력 시계열 길이(time steps)와 은닉 층 노드 수(hidden units)로 설정하였으며, 각각의 탐색 범 위는 [10, 35]와 [32, 128]로 지정하였다.

    단일 최적 조합 도출에 그치지 않고, 모델의 재현성과 안정성을 평가하기 위해 서로 다른 seed 값을 설정하여 총 10회 반복 실험을 수행하였다. 각 실험에서는 Optuna 기반 으로 최적의 하이퍼파라미터 조합을 탐색하고, CNNLSTM, Transformer-LSTM, CEEMDAN-BiGRU의 세 가지 모델을 학습한 후, 역 RMSE 기반의 가중치를 이용한 앙상 블 예측을 수행하였다.

    <Table 4> ~ <Table 6>은 Optuna 기반의 Bayesian Optimization 기법을 활용하여 자동으로 탐색된 하이퍼파 라미터 조합(time steps 및 hidden units)에 대해 서로 다른 시드(seed = 0 ~ 9)를 적용하여 10회 반복 실험을 수행한 결과를 요약한 것이다. 각 실험에서는 CNN-LSTM, Transformer-LSTM, CEEMDAN-BiGRU 모델의 RMSE, 학 습 시간, 추론 시간을 측정하였고, 역 RMSE 기반 가중치 를 적용한 앙상블 결과도 함께 제시하였다. 본 표는 실험 결과의 일관성과 안정성을 검토하고, 모델별 성능 편차 및 연산 효율성을 비교하는 데 활용된다.

    <Table 7>은 서로 다른 시드(seed)를 적용하여 10회 반 복 수행한 실험 결과로부터, 각 예측 모델(CNN-LSTM, Transformer-LSTM, CEEMDAN-BiGRU, ensemble)의 RMSE 평균값과 표준편차를 정리한 것이다. 가중치 기반 앙상블 모델은 가장 낮은 표준편차를 기록하여 예측 성능 의 일관성과 안정성이 높은 것으로 확인되었다.

    <Table 8>은 동일한 조건에서 10회 반복 수행된 실험을 기반으로, 각 모델의 학습 시간 및 앙상블 모델의 추론 시 간에 대한 평균과 표준편차를 제시한 것이다. CEEMDAN-BiGRU는 복잡한 구조로 인해 가장 긴 학습 시간이 소요되었으며, CNN-LSTM과 Transformer-LSTM 은 비교적 짧은 학습 시간을 나타냈다. 앙상블 모델의 평 균 추론 시간은 3.83초로, 실시간 예측에도 활용 가능한 수준의 성능을 보였다.

    여기서 단일 모델의 추론 시간은 별도 표에 제시하지 않았으며, 이는 최종 예측을 위해 모든 모델의 출력이 필 요하고, 해당 값들이 결합되어 앙상블 추론이 이루어지기 때문이다. 따라서 실질적인 성능 비교에는 앙상블 전체의 추론 시간이 핵심 지표가 된다.

    또한 <Figure 6>은 모델별 RMSE의 분포를 Boxplot 형 태로 시각화한 결과로, 앙상블 모델이 전체적으로 가장 낮 고 안정적인 예측 성능을 보였음을 확인할 수 있다.

    실험 2는 하이퍼파라미터 자동 최적화를 통해 모델 성 능을 극대화하고, 반복 실험을 통해 결과의 안정성과 재현 성을 검증하고자 설계되었다. Optuna의 Bayesian Optimization 알고리즘을 활용하여 시계열 입력 길이(time steps)와 은닉층 노드 수(hidden units)를 효율적으로 탐색 하였으며, 총 10개의 서로 다른 시드(seed)를 적용하여 반 복 실험을 수행하였다.

    각 반복 실험에서는 CNN-LSTM, Transformer-LSTM, CEEMDAN-BiGRU의 세 가지 시계열 예측 모델을 학습하 고, 그 예측 결과에 대해 역 RMSE 기반 가중치를 적용한 앙상블 예측을 수행하였다. 실험 결과, 개별 모델 간 RMSE 및 연산 시간에 다소 차이가 존재하였으나, 앙상블 기법은 평균 RMSE 0.01381, 표준편차 0.0019로 가장 낮고 안정적인 예측 성능을 기록하였다. 이는 단일 모델보다 앙 상블 기법이 예측 오차의 편차를 줄이고 전반적인 정확도 를 향상시킬 수 있음을 의미한다.

    또한, CEEMDAN-BiGRU 모델은 우수한 예측력을 보였 지만, 복잡한 구조로 인해 평균 학습 시간은 약 126.71초 로 가장 높았으며, CNN-LSTM과 Transformer-LSTM은 각 각 33.08초, 38.01초로 상대적으로 학습 효율성이 뛰어났 다. 앙상블 모델의 추론 시간은 평균 3.83초로 실시간 응용 에도 충분히 활용 가능한 수준으로 분석되었다.

    따라서 본 실험을 통해 제안한 역 RMSE 기반 가중치 앙상블 기법은 예측 정확도, 안정성, 실시간성 측면에서 모두 우수한 성능을 입증하였으며, 복수의 모델이 갖는 장점을 조화롭게 통합할 수 있는 효과적인 전략으로 판 단된다.

    5. 결론 및 향후 과제

    본 연구는 리튬이온 배터리의 잔존 성능을 나타내는 SOH(State of Health)를 정밀하게 예측하기 위해, 세 가지 딥러닝 기반 모델(CNN-LSTM, Transformer-LSTM, CEEMDANBiGRU) 을 적용하고, 이들의 예측 결과를 RMSE 역수 기 반 가중치를 활용한 앙상블 방식으로 통합하는 예측 프 레임워크를 제안하였다. 실험 데이터는 NASA Ames Prognostics Center에서 제공하는 B0047 셀의 방전 시계열 을 활용하였다.

    연구는 두 가지 실험으로 구성되었다.

    실험 1에서는 입력 시계열 길이(time steps)와 은닉층 노 드 수(hidden units)를 사전에 정의된 6가지 조합으로 수동 설정하여, 각 모델의 성능을 비교하였다. CEEMDANBiGRU는 전체 조합에서 가장 안정적인 성능을 보였으며, 특히 t=20, m=128 조합에서 0.01168의 단일 모델 최저 RMSE를 기록하였다. 해당 조건에서 가중치 기반 앙상블 은 0.01158의 RMSE로, 단일 모델 대비 예측 정확도를 소 폭 향상시켰다.

    실험 2에서는 Optuna의 Bayesian Optimization 기법을 적용하여 하이퍼파라미터 조합을 자동 탐색하였으며, 최 적화된 조합의 일반화 성능을 검토하기 위해 서로 다른 seed 값을 적용하여 총 10회 반복 실험을 설계하였다. 반 복 실험 결과, 앙상블 모델은 평균 RMSE 0.01381(표준편 차 0.0019)로 가장 낮고 일관된 예측 성능을 달성하였다. 단일 모델 중에서는 CEEMDAN-BiGRU가 평균 RMSE 0.01487, 표준편차 0.00329로 우수한 성능을 보였으나, 전 체적으로 앙상블 모델이 성능과 안정성 측면에서 가장 뛰 어난 결과를 보였다.

    특히 CNN-LSTM과 Transformer-LSTM의 예측 편향을 CEEMDAN 기반 시계열 분해 기법이 보완하였고, 이러한 이질적 구조 간 상호보완성이 RMSE 역수 기반 가중 앙상 블을 통해 통합되며 시너지 효과를 유도하였다.

    또한, 실험별 학습 및 추론 시간 분석에서도 CNN-LSTM 과 Transformer-LSTM은 비교적 짧은 학습 시간(평균 각각 33.08초, 38.01초)을 보였고, 앙상블 추론 시간도 평균 3.83 초로 실시간 응용 가능성을 시사하였다.

    그러나 본 연구는 단일 셀(B0047)에 한정된 데이터셋을 활용하였기 때문에, 향후 다양한 셀과 조건(온도, 충방전 전류 등)에서의 적용성 검토가 필요하다.

    또한, CEEMDAN 모델은 높은 정확도를 보이는 반면 학습 시간(평균 126.71초)이 상대적으로 길기 때문에, 실 제 시스템 적용을 위한 구조 경량화 및 연산 최적화 연구 가 병행되어야 한다.

    향후 연구에서는 Optuna의 define-by-run 구조와 조기 종료(Early Stopping), 다중 목적 최적화 기법을 포함한 고 도화된 자동화 프레임워크를 활용하여 실험 효율성을 제 고할 수 있으며, 나아가 실제 BMS(Battery Management System)와 연계 가능한 형태로 모델을 경량화하고, 배터리 상태 진단 기능까지 확장하는 통합 솔루션으로 발전시킬 수 있을 것이다.

    Figure

    JKSIE-48-2-132_F1.gif

    CNN-LSTM Architecture for SOH Prediction

    JKSIE-48-2-132_F2.gif

    Transformer-LSTM Architecture for SOH Prediction

    JKSIE-48-2-132_F3.gif

    CEEMDAN-BiGRU Architecture for SOH Prediction

    JKSIE-48-2-132_F4.gif

    Optuna Optimization Workflow

    JKSIE-48-2-132_F5.gif

    Overall Framework of the Hybrid Deep Learning Ensemble Model for SOH Prediction

    JKSIE-48-2-132_F6.gif

    Boxplot of RMSE for Each Model Across 10 Repeated Experiments

    JKSIE-48-2-132_F7.gif

    RMSE Comparison under Manual Hyperparameter Configurations

    Table

    Descriptive Statistics of the Dataset

    RMSE of Each Model at Different Time Steps (m = 64)

    RMSE Results for Manual Hyperparameter Settings (m = 128)

    Summary of RMSE Results from 10 Trials with Optuna Optimization

    Model Training Time in 10 Trials

    Model Inference Time in 10 Trials

    Summary of RMSE for Each Model Across 10 Experimental Repeats

    Summary of Training and Inference Time Across 10 Experimental Repeats

    Reference

    1. Akiba, T., Sano, S., Yanase, T., Ohta, T., and Koyama, M., Optuna: A Next-Generation Hyperparameter Optimization Framework, Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining, 2019, pp. 2623-2631.
    2. Cheng, L., Zhang, X., and Li, Y., Remaining Useful Life Prediction of Li-ion Batteries Using an Improved CNN-LSTM Model, Energies, 2021, Vol. 14, No. 22, pp. 1-15.
    3. Jung, S.J. and Heo, J.W., Remaining Useful Life Prediction of Lithium-Ion Batteries Using Deep Learning, Journal of the Korea Society for Precision Engineering, 2020, Vol. 19, No. 12, pp. 21-27.
    4. Kang, H.J., Remaining Useful Life Prediction of Lithium-Ion Batteries Using Deep Learning Models, [Master’s Thesis], [Gyeonggi-do, Korea]: Hanyang University, 2022.
    5. Khan, M. and Singh, R., Deep Learning Based Modelling for Degradation Analysis and SOH Estimation of Commercial Lithium-Ion Batteries, Applied Energy, 2021, Vol. 283, pp. 116273.
    6. Kwon, G.H., State of Health Prediction of Batteries Using a Deep Learning-Based Hybrid Method, [Master’s Thesis], [Chungnam, Korea]: Kongju National University, 2025.
    7. Li, Y., Wen, L., and Zhou, K., Prediction-Based Game-Theoretic Strategy for Energy Management of Hybrid Electric Vehicles, IEEE Transactions on Vehicular Technology, 2022, Vol. 71, No. 7, pp. 7124-7136.
    8. Li, Z., Yang, S., and Sun, B., State of Health Estimation of Lithium-Ion Batteries Based on ABC-BiGRU, IEEE Sensors Journal, 2023, Vol. 23, No. 4, pp. 4567-4575.
    9. Wu, Y., Lin, C., and Tang, H., Deep Learning Based Modelling for Degradation Analysis and SOH Estimation of Commercial Lithium-Ion Batteries, Applied Energy, 2021, Vol. 298, p. 117201.
    10. Xiang, Y., Wang, J., and Zhang, L., An Accurate BiLSTM Data-Driven Model for SOH Prediction of Lithium Batteries Based on Health Indicators, Measurement, 2022, Vol. 192.
    11. Yu, X., Liu, Q., and Zhang, T., Lithium-Ion Battery Prognostic and Health Prediction Using Machine Learning Models, Journal of Power Sources, 2020, Vol. 468, p. 228389.
    12. Zhao, L., Wang, T., and Chen, H., Advancing Lithium-ion Battery Prognostics: A Novel Deep Learning Framework for Enhanced SOH and RUL Prediction Accuracy, IEEE Access, 2022, Vol. 10, pp. 105432-105445.