최신연구결과(해외)

EndoscopyAutoimmune gastritis detection from preprocessed endoscopy images using deep transfer learning and moth flame optimization

관리자
2025-07-14
조회수 261

Almutairi FM, Althubiti SA, Aslam SM, Dhahri H, Alhajlah O, Mittal N.

Sci Rep. 2025 Jul 10;15(1):24940. doi: 10.1038/s41598-025-08249-y.


위장은 인체 생리에서 필수적인 기관이며 소화관의 주요 부분을 구성합니다. 위에서 발생하는 이상은 다양한 건강 문제로 이어질 수 있기 때문에, 조기 발견과 치료가 필수적입니다. 위의 염증, 궤양, 용종 및 기타 심각한 감염과 같은 이상은 적절한 관리가 필요합니다. 위 질환을 진단하고 치료하기 위해서는 임상 영상 진단이 필수적이며, 이를 통해 적절한 치료와 관리가 이루어질 수 있습니다.

최근 문헌에 따르면 위장관(GT) 관련 질환의 발생이 다양한 피할 수 없는 원인으로 인해 점차 증가하고 있으며, 조기 진단과 관리가 이러한 이상을 치료하는 데 도움이 됩니다[1,2]. 위 질환 중에서도 자가면역성 위염(Autoimmune Gastritis, AIG)은 특히 심각한 질환으로 간주됩니다. 이 질환은 위장관의 벽세포(parietal cell)가 손상되는 만성 염증성 질환으로, 이로 인해 펩신, 염산, 내인성 인자와 같은 중요한 요소의 분비가 감소하여 소화 장애를 유발합니다. 최근에는 위축 없이 AIG가 나타나는 조기 단계 AIG에 대한 관심이 증가하고 있으며, 이는 내시경 이미지(EI)를 통해 관찰됩니다[1].

내시경을 통해 수집된 위장관 영상(EI)은 병변이 의심되는 부위를 분석하고, 이상 유무와 그 중증도를 판단하는 데 유용합니다. 이 영상은 경험 있는 소화기내과 전문의 또는 컴퓨터 알고리즘(CA)을 통해 분석될 수 있습니다. 최근의 많은 연구에서는 이상을 탐지하기 위해 다양한 CA의 적용이 이루어지고 있습니다[3].

본 연구는 EI 데이터베이스로부터 AIG를 탐지하기 위한 CA를 제안하는 것을 목표로 합니다. 일반적으로 병원에서 AIG 검사는 통제된 환경에서 수행되며, 경험 많은 의사와 간호사가 함께 질환과 중증도를 판단하여 효과적인 치료 계획을 세웁니다[4]. 실시간 AIG 탐지 과정에서는 환자의 현재 건강 상태, 증상의 양상, 수행되는 절차, 선택된 CA를 이용한 결과 분석 및 이후 적절한 치료 여부를 종합적으로 고려해야 합니다.

과거 여러 연구는 내시경 영상을 이용한 AIG 탐지에 있어 인공지능(AI) 도구의 우수성을 입증하였습니다[5,6]. 이러한 연구들은 AI 도구가 영상 처리 방법론에 따라 질환 및 그 중증도를 분석할 수 있으며, 최종 판단은 의료진이 검토 및 확인함으로써 진단의 정확도를 높일 수 있음을 보여주었습니다. 실제 임상에서도 CA는 환자 준비, 검사 중 의료진 지원, 질환 정보의 수집 및 평가 자동화에 핵심적인 역할을 합니다[7].

Kishino와 Nonaka(2022)의 연구에서는 임상에서 수집된 EI로부터 이미지 특성을 활용한 자동 AIG 탐지 기법을 개발하여 내시경 영상에서 더 나은 진단 결과를 얻었습니다[8]. Ayaki 등(2022)은 철 결핍성 빈혈과 AIG를 EI를 통해 진단하는 방안을 제안하였고, 임상적으로 유의한 결과를 제시하였습니다[9]. 의료영상 분석 분야의 기존 연구들사전 처리된 영상이 그렇지 않은 영상보다 더 나은 탐지 성능을 제공함을 보여줍니다[10–12]. 대부분의 영상 분석에서는 초기 영상 향상을 위해 다단계 임계값(thresholding) 기법이 사용되며, 그중 엔트로피 함수 기반의 기법이 가장 우수한 성능을 보여주었기 본 연구에서도 이를 채택하였습니다. 그러나 최적의 엔트로피 임계값 설정은 도전적인 과제로, 본 연구에서는 Moth-Flame 알고리즘을 이용하여 이를 해결하였습니다. 이 알고리즘은 전역 최적값 탐색에 효과적이며, 조정해야 할 초기 매개변수가 적다는 장점이 있어 본 연구에 적합합니다.

본 연구의 주요 목표는 실험실 기술자도 쉽게 사용할 수 있는 사용자 친화적인 도구를 개발하는 것입니다. 이 도구가 생성하는 리포트는 기술자가 쉽게 작성하고 분석할 수 있으며, AIG의 유무 및 중증도를 충분히 이해하는 데 도움이 됩니다. 제안된 도구는 EI를 AIG/비-AIG 그룹으로 분류하는 임상적으로 유의미한 AI 기반 도구이며, 다음과 같은 주요 절차로 구성됩니다:

  • 영상 수집 및 224×224×3 픽셀로 크기 변경

  • Moth-Flame 알고리즘을 이용한 Kapur 또는 Shannon 기반 엔트로피 영상 향상

  • 선택된 딥러닝 모델을 통한 딥 피처 추출

  • Moth-Flame 기반 피처 축소 및 시리얼 피처 결합

  • 선택된 분류기를 이용한 5겹 교차검증 기반 분류

본 연구는 (a) 사전 처리되지 않은 EI, (b) Kapur 또는 Shannon 엔트로피 기반으로 사전 처리된 EI 두 가지 방식에 대해 진행되었으며, 성능을 비교하여 도구의 유효성을 입증하였습니다. 본 도구는 VGG16, VGG19, ResNet50, ResNet101, ResNet152, DenseNet101, DenseNet169, DenseNet201과 같은 사전 학습된(pre-trained) 딥러닝 모델을 사용하여 개발되었으며, 개별 피처와 결합 피처 기반의 탐지 결과가 기록되어 분석되었습니다.

이 연구의 주요 기여는 다음과 같습니다:
i. 선택된 사전 학습 딥러닝 모델들의 영상 데이터베이스에 대한 성능 검증
ii. Moth-Flame 알고리즘 기반의 영상 임계값 설정 및 피처 결합 기법 도입
iii. 선택된 DL 모델들의 분류 성능을 5겹 교차검증을 통해 검증하고 결과를 분석

논문의 나머지 구성은 다음과 같습니다. "EI 기반 진단의 문헌 고찰"에서는 기존의 EI 진단 방법을 논의하고, "방법론"에서는 제안된 기법을 설명하며, "결과 및 고찰"과 "결론"에서는 실험 결과 및 연구의 결론을 제시합니다.


Literature review on EI-examination 

최근 위장관 질환(Gastric Tract Disease, GTD)은 다양한 원인으로 인해 인간에서 점차 증가하고 있으며, 이를 효과적으로 치료하기 위해서는 조기 발견이 필수적입니다. AIG는 자가면역 질환의 일종으로, 위염 부위에 경증에서 중증까지 다양한 질환을 유발할 수 있습니다[10].

이러한 중요성으로 인해, AIG를 정확하게 탐지하기 위한 다양한 연구들이 제안되고 실행되어 왔습니다. 영상 기반 진단법은 그중 하나로, 내시경 영상(EI)은 임상적으로 검증된 방법 중 하나입니다. 이 방식은 유연한 내시경 센서 시스템을 활용하여 위장관의 정보를 수집합니다. 기존의 임상 및 인공지능 기반 연구들표 1에 정리되어 있습니다.

문헌에서는 의료 데이터 분석의 성능을 향상시키기 위한 다양한 방법들이 제안되어 왔으며[22–24], 특히 위장관 질환과 관련된 질병에 대해서도 활발히 연구되고 있습니다[25–27]. 표 1에 제시된 연구는 임상 및 공인된 내시경 영상(EI)을 활용한 AIG의 조기 진단의 중요성을 잘 보여줍니다.

이러한 배경을 바탕으로, 본 연구는 EI를 이용하여 AIG를 효과적으로 탐지하기 위한 방법론을 제시하며, 딥러닝(DL) 기반 접근법을 구현하여 내시경 영상을 AIG와 비-AIG(NAIG)로 분류하는 과정을 설명합니다.

Table 1. Earlier works on AIG detection using clinical and EI information.


Methodology

최근에는 의료 데이터를 보다 정확하게 분석하기 위한 다양한 고급 기법들이 제안되고 있습니다[28,29]. 병원에서는 질병 선별 과정에서 수집된 의료 데이터를 기반으로 환자를 진단하기 위해 컴퓨터 알고리즘(CA) 도구들이 널리 사용되고 있습니다. 진단 성능을 향상시키기 위해 대부분의 최신 도구는 알고리즘과 연동되어 의료 데이터 기반 평가 및 보고서 생성 과정을 지원합니다.

이러한 도구는 일반적으로 훈련된 실험실 기술자에 의해 운용되며, 기술자는 데이터 수집, 평가 및 보고서 생성을 담당하여 임상의의 의사결정을 지원합니다. Fig. 1내시경 영상(EI) 수집부터 최종 평가까지 수행되는 전체 과정을 보여줍니다. 먼저, 환자는 의사의 지시에 따라 내시경 검사를 위한 준비를 하게 됩니다. 환자 준비 및 영상 촬영 절차는 숙련된 기술자가 의사의 감독 하에 수행하게 됩니다. Fig. 1에서와 같이, 핵심적인 EI 프레임이 수집되고, 처리되어 현재 또는 향후 진단을 위해 보관됩니다.

Fig. 1. Clinically significant tool to examine AIG/NAIG using endoscopic-images.

이 도구의 두 번째 단계는, 보관된 영상을 활용하여 제안된 딥러닝(DL) 기반 기법으로 AIG/NAIG 여부를 분석하고, 이진 분류 작업을 통해 질환 유무를 확인하는 과정입니다. 이 단계에서 수행되는 주요 작업은 다음과 같습니다:

  • 이미지224×224×3 픽셀로 크기 조정

  • Moth-Flame(MF) 알고리즘으로 제어되는 삼중 임계값(tri-level thresholding) 기반 영상 명도 향상

  • 선택된 DL 모델을 활용한 딥 피처 추출

  • MF 알고리즘을 이용한 피처 축소

  • 직렬 피처 결합(serial features integration)을 통해 FF 벡터 구성 및 훈련과 검증 수행

본 연구에서는 5겹 교차검증(5-fold cross-validation)을 적용하여 이진 분류를 수행하였으며, 이 중 가장 우수한 결과를 최종 결과로 채택하였습니다. 연구 결과는 본 기법이 AIG/NAIG 영상 데이터베이스에서 우수한 탐지 성능을 달성하는 데 효과적임을 입증하였습니다.


Image-assisted diagnosis 

의료 영상 기반 질병 진단은 일반적인 임상 진료 방식 중 하나이며, 본 연구에서는 내시경 영상(EI)을 기반으로 AIG/NAIG를 탐지하는 PDL(Powered Deep Learning) 기법을 제안합니다. 본 도구의 성능과 임상적 유의성은 임상 등급의 EI 데이터베이스를 통해 확인할 수 있습니다. 본 연구에서는 참고문헌 [30. Dawei Gong, L., BinbinGu, Y., Zhang, R., Mao, X. & Sailing He. Gastritis 2 classification dataset. IEEE Dataport. https://doi.org/1 0.21227/3yqx-d789 (2023).]에서 제공하는 EI 데이터셋을 사용하였으며, 이 영상들은 224×224×3 픽셀로 크기를 조정하고, 필요한 영상 수 확보를 위해 데이터 증강(data augmentation)을 실시하였습니다.

이 연구에서 활용된 EI 데이터베이스는 참고문헌 [30]에서 확인할 수 있으며, 이 데이터베이스는 다음과 같이 구성되어 있습니다. 학습용(training) 영상AIG 970장, NAIG 1532장이고, 테스트용(testing) 영상 AIG 416장, NAIG 658장으로, 초기 영상 크기는 512×512×3 픽셀입니다. 이 초기 영상 크기는 딥러닝 모델로 효과적으로 처리하기에는 너무 크므로, 모든 영상의 크기를 DL 분석의 기본 입력 크기인 224×224×3 픽셀로 축소하였습니다.

이 데이터베이스는 AIG와 NAIG 간의 클래스 비율이 불균형하므로, 본 연구에서는 AIG 1500장과 NAIG 1500장으로 균형 잡힌 데이터셋을 구성하여 도구의 성능을 검증하였습니다. AIG 클래스의 경우, 총 1386장(970 + 416)을 확보한 뒤, 부족한 114장(1500−1386)은 수평 반전(horizonal flip) 방식으로 데이터 증강을 실시하여 총 1500장으로 확장하였습니다. NAIG 클래스는 1500장만 선택하고 나머지 690장은 제외하였습니다.

학습 및 검증을 위해 전체 데이터를 다음과 같이 분할하였습니다:

  • 학습용: 전체의 80% (1200장)

  • 검증용: 전체의 10% (150장)

  • 테스트용: 전체의 10% (150장)

테스트 과정에서 얻어진 결과는 선택된 EI 데이터에 대해 최적의 PDL 기법을 선택하기 위한 기준으로 사용됩니다. 본 연구에서 분석에 사용된 이미지 수표 2에 요약되어 있으며, 데이터베이스에 포함된 샘플 이미지는 그림 2에 제시되어 AIG와 NAIG 카테고리 EI 영상 간의 차이를 보여줍니다.


Table 2. The number of images in various operations considered in this study 

Fig. 2. Sample test images of AIG and NAIG from chosen EI-database.


Image pre-processing

이미징 장비에서 수집된 원본 영상(unprocessed image)선택된 내시경 영상(EI) 프레임의 픽셀 가시성을 향상시키기 위해 전처리(pre-processing) 과정이 필요할 수 있습니다. 전처리를 적용하면 영상 정보가 크게 향상되며, 자동 분석을 수행할 때 더 나은 탐지 정확도를 얻는 데 도움이 됩니다. 이전의 의료 데이터 분석 연구들에 따르면, 선택된 기법으로 전처리된 이미지는 전처리되지 않은 이미지보다 더 나은 탐지 결과를 제공함이 확인되었습니다.

또한, 회색조(grey) 또는 RGB 픽셀을 가진 의료 영상 클래스에서 선택된 임계값 기반의 영상 향상 기법더 나은 탐지 결과를 지원하였습니다[31,32]. 다양한 방법 중에서도 엔트로피 기반 접근법은 다른 방법들에 비해 우수한 성능을 제공하는 것으로 알려져 있으며, 이는 문헌[33,34]에서 논의된 바 있습니다. 따라서 본 연구에서는 이미지의 픽셀을 배경(background), 정상 영역(normal region), 비정상 영역(abnormal section)으로 구분할 수 있도록 도와주는 엔트로피 기반의 삼중 임계값(tri-level thresholding, T=3) 기법을 채택하였습니다[35,36].

본 연구는 전통적인 Moth-Flame(MF) 알고리즘으로 제어되는 Kapur 또는 Shannon 엔트로피 기반의 삼중 임계값 기법을 활용하여 이미지 전처리를 구현하였습니다. 선택된 의료 영상 데이터베이스에 대한 임계값 설정(thresholding)에 관한 추가 정보는 문헌[37,38]에서 확인할 수 있습니다. 선행 연구들은 임계값 기반 전처리 기법이 원본 의료 영상 대비 더 우수한 분석 결과를 제공함을 입증하고 있습니다.


Tri-level thresholding

임계값 설정(thresholding)이미지의 픽셀을 그룹화하는 개념에 기반하여 영상의 계층(layer) 가시성을 향상시키는 일반적인 영상 향상 기법 중 하나입니다. 본 연구에서는 Kapur 함수 또는 Shannon 함수 기반의 엔트로피 보조 임계값 설정(entropy-assisted thresholding)을 이용하여 영상 향상을 수행하였습니다. Kapur 함수 기반의 기존 임계값 설정 기법은 문헌[39–41]에서 확인할 수 있으며, Shannon 함수에 대한 내용은 문헌[42–44]에서 확인할 수 있습니다. 관련 수학적 표현식은 문헌[45,46]에서 충분히 논의되어 있습니다.

또한, MF(Moth-Flame) 알고리즘 기반의 영상 향상 및 특징 최적화에 관한 선행 연구본 연구에서 선택된 영상 분석 절차에 있어서 해당 알고리즘의 유용성을 입증하였습니다[47]. 본 연구에서는 필요한 임계값을 식별하기 위해 MF 기반 탐색(MF-based search)을 적용하였습니다. MF 탐색 과정에서는 임계값들을 임의로 지속적으로 변경하면서 엔트로피 값을 최대화할 수 있는 조합을 탐색하고, 최종적으로 향상된 영상(enhanced image)을 출력 결과로 제공합니다.


Moth-Flame algorithm

불꽃(광원)을 찾아 움직이는 나방(Moth)의 행동 모델에 기반한 MF(Moth-Flame) 알고리즘은 탐색 최적화 기법으로 활용됩니다[46]. MF 알고리즘과 관련된 기타 연구들은 문헌[48–50]에서 확인할 수 있으며, 초기 MF 알고리즘의 설정 값들은 Rajinikanth 등[51]의 논의에 따라 제안되었습니다.

선택된 d차원(d-dimensional) 탐색 공간에서 n개의 나방(moth)이 존재할 때, MF 알고리즘의 수학적 표현초기화 식 Eq. (1)과 같이 정의됩니다.

각 나방(moth)목적 함수(Objective Function, OF)의 값에 따라 Eq. (2)와 같이 정렬됩니다.

각 나방(M)마다 n개의 불꽃(F)이 존재한다고 가정하면, 이는 식 Eq. (3)과 같이 표현됩니다.

마찬가지로, 나방(M)을 기준으로 한 불꽃(F)의 정렬식 Eq. (4)와 같이 설명할 수 있습니다.

MF 알고리즘을 설명하기 위해, 하나의 탐색 공간n개의 나방(M)과 동일한 수의 불꽃(F)이 존재한다고 가정하겠습니다. 선택된 나방 M과 불꽃 F 사이의 거리 Dn은 다음과 같이 정의됩니다:
Dn = |Fn − Mn|.
이 거리는 최소화되어야 하며, 이는 선택된 과제에서 최적의 해(임계값)를 찾기 위한 것입니다. 이와 같은 개념은 선행 연구들에서 논의된 바 있습니다[52–54]. 나방 M이 선택된 불꽃 F를 향해 이동하는 과정식 Eq. (5)와 같이 정의됩니다.

여기서 Mn은 n번째 나방, Fn은 n번째 불꽃, kk는 나선형 궤적을 정의하는 상수, RR은 [−1, 1] 범위의 임의(random) 값입니다.

최적화 작업이 시작되면, 각 나방 MM은 주어진 목적 함수(Objective Function, OF)를 기준으로 관련된 불꽃 FF를 찾게 되며, 이 과정은 본 연구의 선택된 문제들에 대한 적절한 해를 찾는 데 도움이 됩니다. 여기서 다루는 문제는 다음과 같습니다:
(i) 엔트로피 기반 임계값 설정(Thresholding),
(ii) 거리 측정 기반 특징 최적화(Feature Optimization).

문헌에 따르면, 엔트로피 기반 임계값 설정 기법은 선택된 영상들에서 더 나은 결과를 도출하는 데 도움이 되는 것으로 확인되었습니다. 임계값 설정 과정에서는 엔트로피 함수의 극대화가 MF 알고리즘 탐색의 목적 함수(OF)로 사용될 수 있습니다.

본 연구에서는 선택된 엔트로피 함수에 대한 필요한 정보를 아래에 설명합니다:


Kapur의 엔트로피 기반 임계값 설정
Kapur의 엔트로피 개념영상 내에서 엔트로피의 최대화를 기반으로 회색조(grey-scale) 영상의 임계값을 식별하기 위해 제안되었습니다[42–44].

이 과정을 설명하기 위해, t1부터 t255까지의 임계값을 가지는 영상을 고려해 보겠습니다. 식 Eq. (6)에서와 같이 임계값의 분포는 다음과 같습니다:

전체 픽셀 수를 N~이라 하겠습니다.
f(i)는 i번째 밝기(intensity) 수준의 픽셀 빈도(frequency)를 의미하며, 이는 식 Eq. (7)과 같이 정의됩니다.

해당 밝기(intensity) 수준의 확률(probability)식 Eq. (8)과 같이 나타낼 수 있습니다.

T개의 임계값(threshold)이 존재한다고 가정하면, 이는 식 Eq. (9)와 같이 표현됩니다.

Lis의 값은 필요한 임계값의 개수에 따라 선택되며, 본 연구에서는 삼중 임계값(tri-level thresholding)을 위해 L = T = 3으로 설정하였습니다.
따라서, 본 연구에서 선택된 문제에 대해 엔트로피 기반 함수(E)는 식 Eq. (10)과 Eq. (11)과 같이 정의됩니다.

임계값 선택 과정은 T = 3일 때 이러한 값들을 무작위로 조정하며, 문헌 [31,32]에서 논의된 바와 같이 향상된 영상을 제공하는 데 도움을 줍니다.


Shannon’s entropy thresholding 

선택된 영상에 대해 Shannon 함수(Shannon’s function)를 설명하기 위해, 크기가 H×B 인 2차원 이미지를 고려하겠습니다. 이 영상의 좌표 (x, y)로 나타내며, 이는 식 Eq. (12) 및 Eq. (13)과 같이 표현할 수 있습니다.

영상의 전체 픽셀 수를 G로 정의하면, 이 함수는 식 Eq. (14)와 같이 영상으로 표현됩니다.

위 영상에 대한 정규화된 임계값(normalised threshold)식 Eq. (9)에서와 같이 표현됩니다.

위 식식 Eq. (15)와 같이 표현될 수 있습니다.

식 Eq. (16)의 결과선택된 과제에 대해 최대화된 엔트로피 값 T*를 나타냅니다.


본 연구에서는 먼저 MF(Moth-Flame) 알고리즘 Kapur 함수 또는 Shannon 함수결합하여 영상 향상에 적용하였으며, 이후 거리 측정(distance measure)을 목적 함수로 하여 특징(feature) 최적화에도 적용하였습니다.

MF 알고리즘에 사용된 파라미터 값은 다음과 같습니다:

  • 나방(Moth) 수 = 불꽃(Flame) 수 = 30

  • 탐색 공간의 차원(d) = 3 (임계값 설정 시), 2 (특징 선택 시)

  • 최대 반복 횟수(Itermax) = 1500

MF 알고리즘의 동작 방식과 영상 향상 절차는 Fig. 3에 도식화되어 있습니다.
Fig. 3a는 MF 알고리즘의 전반적인 동작 과정을 보여주며, Fig. 3b는 선택된 임계값 설정(thresholding) 절차의 흐름도를 나타냅니다.

Fig. 3. Implementation of MF-based image thresholding. 


이 기법을 통해 얻어진 결과는 Fig. 4에 제시되어 있습니다.
Fig. 4a는 AIG 및 NAIG의 원본(전처리되지 않은) 영상 샘플을 보여주고, Fig. 4b는 각각 Kapur 함수와 Shannon 함수를 이용한 전처리 영상들을 보여줍니다. 이를 통해 제안된 기법이 영상의 주요 특징을 효과적으로 향상시켰음을 확인할 수 있습니다.

Fig. 4. Depiction of the raw- and enhanced-image of AIG and NAIG.


Deep transfer-learning implementation

본 연구에서는 전처리되지 않은 영상전처리된 영상에서 필요한 특징(feature)을 추출하기 위해 사전 학습된(pre-trained) 딥러닝(DL) 모델들을 활용하였으며, 이 특징들은 제안된 기법을 통해 선택된 내시경 영상(EI) 데이터베이스를 분류하는 데 사용되었습니다. 사용된 DL 모델로는 VGG16, VGG19, ResNet 계열(RN50, RN101, RN152), DenseNet 계열(DN101, DN169, DN201)이 있으며[55,56], 이들 모두는 영상 분석 과제에서 널리 채택되는 사전 학습 모델입니다. 각 모델에 대한 상세한 정보는 문헌 [56]에서 확인할 수 있습니다.

초기 분류 작업은 SoftMax(SM) 분류기를 통해 수행되었으며, AIG/NAIG 데이터베이스에서 가장 높은 정확도를 보인 두 개의 모델(Model1 및 Model2)이 선정되었습니다. 이후 이 두 모델에서 추출한 특징MF 알고리즘의 거리 측정(distance measure)을 이용하여 축소(feature reduction)되었으며, AIG와 NAIG 간의 최대화된 카르테시안 거리(Cartesian Distance, CD)를 기준으로 최적의 Model1 및 Model2 특징을 선택하여 결합 특징 벡터(FF vector)를 생성하였습니다.

모든 DL 모델에 대해 다음과 같은 학습 파라미터가 설정되었습니다:

  • 학습률(learning rate) = 1e-4

  • 성능 지표(metrics) = 정확도(accuracy) 및 손실(loss)

  • 배치 크기(batch size) = 8

  • 에폭(epoch) 수 = 100

  • 풀링(pooling) = 최대 풀링(max pooling)

  • 최적화 함수(optimizer) = Adam

  • 분류기(classifier) = SoftMax

제안된 특징 축소 및 FF 벡터 생성 과정Kapur 전처리 영상Shannon 전처리 영상에 대해 각각 수행되었습니다. 이후 생성된 FF 벡터를 기반으로 AIG/NAIG 분류 성능은 다음의 다양한 분류 기법을 통해 평가되었습니다:

  • SoftMax (SM)

  • 결정 트리 (Decision Tree, DT)

  • 랜덤 포레스트 (Random Forest, RF)

  • K-최근접 이웃 (K-Nearest Neighbour, KNN)

  • 서포트 벡터 머신 (Support Vector Machines, SVM)

5겹 교차 검증(5-fold cross-validation)을 통해 분류 성능을 측정하였으며, 이 중 가장 우수한 결과를 본 연구에서 제안한 기법의 유효성을 확인하는 데 활용하였습니다. 선택된 기법에 따른 특징 축소 과정은 식 Eq. (17)과 Eq. (19)를 통해 설명되며, 생성된 결합 특징 벡터(FF-vector)는 식 Eq. (4)로 나타납니다.

Performance evaluation and confirmation 

여기서 r1, r2, r3는 MF 알고리즘 기반 최적화 후 각 모델에서 선택된 특징(feature)의 수를 의미합니다. MF 알고리즘은 초기 설정 파라미터가 매우 적으며, 특징 선택(feature selection) 분야에서의 유효성은 이미 여러 연구들에 의해 입증되었습니다[46–48]. 이 알고리즘은 지역 최적해(local-optimal)에 빠지지 않고 적은 반복 횟수로 최적의 특징을 찾는 데 효과적입니다.

특징 결합(feature-fusion)딥러닝 모델에서 추출한 최적의 특징들직렬 연결(serial concatenation) 방식으로 통합하여 하나의 통합 특징 벡터(single-feature vector)를 생성하는 일반적인 절차입니다. 이러한 기법에 대한 세부 내용은 다양한 영상 분석 과제에 대한 기존 문헌들에서 충분히 논의되어 있습니다[47,48]. 이 기술은 두 개의 모델에서 얻은 최고의 특징을 결합하여 하이브리드 특징 벡터(hybrid feature vector)를 구성함으로써 선택된 데이터의 효과적인 분류를 가능하게 합니다.

선택된 MF 알고리즘을 기반으로 수행된 특징 선택 과정에서는, Model1에서 388개의 특징이 선택되었으며(r 1=388), Model2에서는 406개의 특징이 선택되었습니다(r 2=406). 이 두 값을 기반으로 결합 특징 수 r3는 다음과 같이 계산됩니다:

r3 = r1 + r2 = 388 + 406 = 794 features


<Result and discussion>

본 절에서는 전처리되지 않은 영상과 전처리된 영상에 대해 수행한 실험 결과를 제시하며, 구현된 딥러닝(DL) 기반 기법의 AIG/NAIG 탐지 정확도를 통해 도구의 유효성을 검증합니다. 본 연구의 실험은 Python 소프트웨어 (버전 3.13.2)를 사용하여 수행되었으며, 실험 장비는 Intel i7 프로세서, 20GB RAM, 6GB VRAM을 갖춘 PC입니다. 영상 향상은 Matlab 소프트웨어 (R2022b)로 수행하였고, 분류 작업은 Python으로 진행되었습니다.

개발된 DL 기반 AIG/NAIG 탐지 도구의 성능은 먼저 전처리되지 않은 내시경 영상(EI) 데이터베이스를 통해 평가되었으며, 5겹 교차검증 결과가 기록되어 이후 분석에 사용되었습니다. VGG16 모델에 대한 정확도 결과표 3(Table 3)에 제시되어 있으며, 평균±표준편차(m±SD) 기반 통계 분석 결과는 VGG16이 해당 데이터에서 우수한 성능을 보였음을 확인시켜 줍니다. 이는 개발된 도구의 우수성을 입증합니다.

Table 3. Performance verification of VGG16 for 5-fold cross-validation. 

본 연구에서는 SoftMax(SM) 기반의 이진 분류가 수행되었으며, VGG16과 RN101 모델에 대한 혼동행렬(Confusion Matrix, CM)은 그림 5(Fig. 5)에 제시되어 있습니다. 그림 5a는 VGG16의 CM을, 그림 5b는 RN101의 CM을 보여주며, 두 모델 모두 선택된 데이터베이스에서 우수한 탐지 정확도를 보였습니다.

Fig. 5. CM matrix achieved with the unprocessed EI-database classification with SM.

VGG16에서 합성곱층(Convolution Layer, CL)을 통해 이미지 픽셀이 어떻게 특징으로 변환되는지를 보여주는 결과그림 6(Fig. 6)에 제시되어 있습니다. 그림 6a~d는 CL1~CL4의 결과를 보여주며, VGG16에서의 픽셀-to-특징 변환이 효과적으로 이루어졌음을 확인할 수 있습니다.

Fig. 6. Various convolution-layer outcomes were achieved for VGG16.

전처리되지 않은 이미지에 대한 SM 기반 분류 결과표 4(Table 4)에 제시되어 있으며, VGG16과 RN101 모델이 다른 DL 모델에 비해 더 우수한 정확도를 나타냅니다. 

Table 4. Experimental outcome with the raw-images and SM classification.

다만 이 실험의 정확도는 90% 미만이었으며, 이에 따라 Kapur 함수 및 Shannon 함수 기반의 전처리 이미지를 활용하여 분류 작업을 반복하였고, 그 결과는 각각 표 5(Table 5)와 표 6(Table 6)에 제시되어 있습니다.

Table 5. The experimental outcome with kapur’s enhanced EI database and SM classification.

Table 6. The experimental outcome with shannon’s enhanced EI database and SM classification.

표 5는 Kapur 임계값 기반 전처리 이미지에 대한 실험 결과를 보여주며, VGG16과 RN101의 탐지 정확도가 92.5% 이상으로 향상되었음을 확인할 수 있습니다. 따라서 이 두 모델의 특징이 MF 알고리즘을 이용하여 축소되었고, 결과적으로 VGG16(1×1×337), RN101(1×1×406)의 특징 수를 가지며, 이를 직렬 결합하여 생성된 결합 특징 벡터(FF-vector, FFV1)는 다음과 같습니다:
FFV1(1×1×743) = VGG16(1×1×337) + RN101(1×1×406)

표 6은 Shannon 임계값 기반 전처리 이미지에 대한 실험 결과를 보여주며, 역시 VGG16과 RN101의 탐지 정확도가 92.5% 이상으로 나타났습니다. 이에 따라 MF 알고리즘을 통한 특징 축소 결과, VGG16은 388개, RN101은 391개의 특징이 선택되었고, 결합 특징 벡터는 다음과 같이 정의됩니다:
FFV2(1×1×779) = VGG16(1×1×388) + RN101(1×1×391)

표 4, 5, 6의 전체 성능을 시각적으로 비교하기 위해 글리프 플롯(Glyph-plot)을 그림 7(Fig. 7)로 구성하였습니다. 그림 7a~7c는 각각 표 4, 5, 6의 값을 나타내며, VGG16과 RN101의 플롯 패턴이 다른 DL 모델보다 우수함을 보여줍니다.

Fig. 7. Glyph-plot to demonstrate the overall performance achieved with the SM-classifier. 

이후 FFV1과 FFV2에 대해 선택된 이진 분류기(SM, DT, RF, KNN, SVM)를 사용하여 분류 작업을 다시 수행하였고, 그 결과는 표 7(Table 7)에 정리되어 있습니다. 이 표는 KNN 분류기FFV1과 FFV2 모두에서 SM, DT, RF, SVM보다 더 나은 성능을 제공함을 보여줍니다.

Table 7. Experimental result for DL-based AIG/NAIG detection with chosen classifiers for FF-vector.

그림 8(Fig. 8)FFV2를 이용한 KNN 기반 AIG/NAIG 분류 실험 결과를 보여줍니다. 그림 8a와 8b는 에폭(epoch)에 따른 정확도(accuracy) 및 손실(loss)을, 그림 8c는 혼동행렬(CM), 그림 8d는 수신자 조작 특성(ROC) 곡선을 나타내며, KNN의 성능 우수성을 시각적으로 확인할 수 있습니다.

Fig. 8. The experimental outcome for FFV2 with KNN.


FFV1을 이용한 실험 결과, KNN 분류기의 정확도는 약 98.33%였으며, 이는 다른 분류기보다 우수했습니다. FFV2를 이용한 결과에서도 KNN은 99.33%의 정확도를 보여주었으며, 이는 선택된 EI 데이터베이스에서 가장 높은 성능입니다. 이 두 결과는 Shannon 기반 전처리 영상이 Kapur 기반 영상보다 더 나은 탐지 결과를 제공했음을 시사합니다.

제안된 DL 기법의 전반적인 유효성은 전처리 전 및 전처리 후 영상을 모두 활용하여 입증되었습니다. 실험 결과는 FF-벡터 기반 접근 방식이 EI 데이터베이스에서 향상된 탐지 성능을 제공함을 확인시켜 줍니다.

향후 연구에서는 Otsu 함수, Tsalli 함수와 같은 다른 임계값 설정 기법을 이용하여 영상 향상 작업을 수행할 수 있으며, MF 알고리즘 대신 최근의 휴리스틱 알고리즘을 적용하여 성능 향상을 도모할 수 있습니다. 또한, 제안된 기법의 임상적 유의성을 실제 임상에서 수집된 내시경 영상 데이터베이스를 통해 추가적으로 검증할 필요가 있습니다.


<Conclusion>

AIG/NAIG의 임상 수준 탐지대부분 숙련된 의사의 지도 하에 내시경 검사를 통해 수행됩니다. 대부분의 경우, 내시경 영상(EI) 데이터의 수집 및 분석은 실험실 수준에서 통제된 환경에서 이루어지며, 분석 결과 및 보고서는 의사의 승인을 위해 전달됩니다.

본 연구에서는 전처리 여부에 관계없이 AIG/NAIG 내시경 영상을 분석할 수 있는 딥러닝(DL) 기반 도구를 개발하였으며, 그 결과를 비교·검증하였습니다. 전처리되지 않은 영상에 대한 분석 결과는 낮은 정확도를 보였으며, 탐지 정확도는 90% 미만에 불과하였습니다. 이에 따라 본 연구에서는 전처리된 영상에 기반한 분석을 중심으로 수행하였습니다.

Kapur 함수 및 Shannon 함수로 전처리된 영상에서 VGG16 및 RN101 모델은 모두 우수한 결과를 보여주었으며, 특히 두 모델의 특징을 결합한 FF-vector 기반 분류에서는 선택된 EI 데이터베이스에서 98% 이상의 높은 정확도를 달성하였습니다. 이러한 실험 결과는 개발된 시스템이 임상적으로 유의미한 결과를 제공할 수 있음을 확인시켜 줍니다.

향후에는 본 연구에서 제안한 DL 기반 도구가 임상 등급 AIG/NAIG 영상을 탐지하는 데 실질적으로 활용될 수 있을 것으로 기대됩니다.


<Abstract>

Gastric Tract Disease (GTD) constitutes a medical emergency, emphasizing the critical importance of early diagnosis and intervention to lessen its severity. Clinical practices often utilize endoscopy-supported examinations for GTD screening. The images obtained during this procedure are examined to identify the presence of the disease and investigate its severity. Autoimmune Gastritis (AIG) is a chronic inflammatory GTD and timely detection and treatment is crucial to reduce its harshness. This research aims to develop a deep-learning (DL) tool to detect the AIG from clinical-grade endoscopic images. Various stages in the DL tool comprise; (i) Image collection and resizing, (ii) image pre-processing using Entropy-function and Moth-Flame (MF) Algorithm, (iii) deep-features extraction using a chosen DL-model, (iv) feature optimization using MF algorithm and serial features concatenation, and (iv) classification and performance confirmation using five-fold cross-validation. This study aims to develop a DL tool to assist clinicians during the AIG examination and hence better detection accuracy is preferred. The merit of the DL model is demonstrated in the individual deep-features and serially concatenated-features and the experimental outcome of this study provides a detection accuracy of 99.33% when the detection is performed with fused-features and K-Nearest Neighbor classifier. This authenticates that this tool offers a clinically important outcome on the endoscopy database.

Keywords: Autoimmune gastritis; Classification; Deep-learning; Endoscopy images; Entropy thresholding; Moth-Flame algorithm.


위장관 질환(Gastric Tract Disease, GTD)은 의학적 응급상황으로 간주되며, 중증도를 완화하기 위해 조기 진단과 치료개입이 매우 중요합니다. 임상에서는 GTD 선별을 위해 주로 내시경 검사를 사용하며, 이 과정에서 획득된 영상은 질환의 유무 및 중증도를 평가하는 데 활용됩니다. 자가면역성 위염(Autoimmune Gastritis, AIG)은 만성 염증성 GTD의 일종으로, 조기 발견과 치료가 질환의 악화를 방지하는 데 중요합니다.

본 연구는 임상 등급의 내시경 이미지를 활용하여 AIG를 자동으로 탐지하는 딥러닝(DL) 기반 도구를 개발하는 것을 목표로 합니다. DL 도구의 주요 단계는 다음과 같습니다:
(i) 이미지 수집 및 크기 조정,
(ii) 엔트로피 함수와 Moth-Flame(MF) 알고리즘을 활용한 이미지 전처리,
(iii) 선택된 DL 모델을 이용한 딥 피처 추출,
(iv) MF 알고리즘과 시리얼 피처 결합을 통한 피처 최적화,
(v) 분류 및 5겹 교차검증(five-fold cross-validation)을 통한 성능 검증.

본 연구의 목적은 AIG 검진 시 임상의의 진단을 보조할 수 있는 DL 도구를 개발하는 것이며, 이를 통해 높은 정확도의 탐지를 실현하는 것입니다. 개발된 DL 모델의 장점은 개별 딥 피처와 시리얼로 결합된 피처 모두에서 확인되었으며, 실험 결과, 결합된 피처와 K-최근접 이웃(K-Nearest Neighbor) 분류기를 활용했을 때 99.33%의 탐지 정확도를 달성하였습니다. 이는 본 도구가 내시경 영상 데이터베이스에 대해 임상적으로 유의미한 성과를 제공함을 입증합니다.

 

0 0


대한자가면역성위염연구회

주소 : 경기도 용인시 기흥구 중부대로 579, 508-23호

대표전화 : 070-8080-0453

이메일 : autogastritis@gmail.com 


Copyright (c)대한자가면역성위염연구회. All Rights Reserved.

Design Hosting By 위멘토.


대한자가면역성위염연구회

주소 : 경기도 용인시 기흥구 중부대로 579, 508-23호 (구갈동, 강남대프라자)

대표전화 : 070-8080-0453  이메일 : autogastritis@gmail.com 


Copyright (c)대한자가면역성위염연구회. All Rights Reserved. Design Hosting By 위멘토.