머신 러닝을 활용한 약물저항성 뇌전증 예측

Machine Learning-Based Prediction of Drug-Resistant Epilepsy

Article information

Epilia: Epilepsy Commun. 2021;3(2):99-106
Publication date (electronic) : 2021 September 30
doi : https://doi.org/10.35615/epilia.2021.00298
1Center for Hospital Medicine, Department of Neurosurgery, Seoul National University Hospital, Seoul, Korea
2Department of Neurology, Seoul National University Hospital, Seoul, Korea
신용원1,*, 엄희상2,*, 차광수2, 정기영2
1서울대학교병원 입원의학센터 신경외과
2서울대학교병원 신경과
Corresponding author: Ki-Young Jung, MD, PhD Department of Neurology, Seoul National University Hospital, Seoul National University College of Medicine, 101 Daehak-ro, Jongno-gu, Seoul 03080, Korea Tel: +82-2-2072-4988 Fax: +82-2-2072-2474 E-mail: jungky@snu.ac.kr
*These authors contributed equally to this work.
Received 2021 September 14; Revised 2021 September 17; Accepted 2021 September 18.

Trans Abstract

Background

A significant proportion of patients with epilepsy suffer from seizures unresponsive to antiepileptic drugs. Certain clinical findings are associated with an increased risk of drug-resistant epilepsy. However, trials of two or more antiepileptic drugs with observational periods are required before diagnosing a patient with drug-resistant epilepsy. Electroencephalography (EEG) is one of the most important tests for epilepsy assessment; however, a visual analysis of EEG usually does not provide evidence regarding whether epilepsy is refractory. By harnessing the capability of machine learning algorithms that recognize and learn patterns that are difficult to recognize by human eyes, we performed a machine learning study of EEG data to predict drug-resistant epilepsy.

Methods

From 2014 to 2017, we collected EEG data from patients diagnosed with epilepsy and used a channel-wise attention network, a convolutional neural network, and a temporal convolutional network to learn the EEG patterns of patients with drug-resistant epilepsy.

Results

Data from 978 EEG examinations were available for training and testing. The best performance achieved was an accuracy of 0.660 and an area under the curve score of 0.634. Our models predicted drug-resistant epilepsy better than drug-sensitive epilepsy.

Conclusions

This result suggests that EEG may contain information predictive of drug-resistant epilepsy; however, the performance of the current model was insufficient for clinical use to predict drug-resistant epilepsy. Our findings warrant further investigation to identify EEG markers of drug-resistance and to increase model performance to a level sufficient to aid in clinical decision-making.

서론

뇌전증은 전 세계 약 5천만 명이 앓고 있는 주요 신경계 질환 중 하나로, 신경계 질환 내에서뿐만 아니라 전체 질환 기준으로도 높은 비중의 질병 부담을 야기하는 질환이다.1-4 뇌전증 진단 시 대개 항경련제를 일차적으로 사용하나 대략 절반 정도의 환자만 첫 번째 항경련제로 경련 조절이 가능하며, 항경련제를 2제 사용한다면 2/3 정도에서 경련 조절이 가능한데 여기서도 반응하지 않는 경우 추가적 항경련제를 사용한다 해도 경련 조절에 성공하는 비율은 약 5% 정도에 불과하다.5 따라서 상당수의 환자에서는 항경련제만으로 경련 조절이 어려우며 이러한 환자의 경우 수술 등 다른 치료를 고려할 필요가 있다.

여러 임상 소견들을 통하여 약물저항성(drug-resistant) 뇌전증을 예측할 수 있으나, 약물저항성 뇌전증과 연관된 임상적 소견들이 있다 하더라도 이러한 환자들이 반드시 약물저항성 뇌전증이 되지는 않는다.6 가령 약물저항성 뇌전증에서 가장 흔하게 발견되는 병리적 소견인 해마 위축(hippocampal sclerosis)의 경우 반드시 약물 불응성이 아닐 수 있으며, 무증상인 경우도 있다.7,8 이에 일반적으로 항경련제 투약 후 반응을 보아 2제 이상의 항경련제 사용에도 발작 조절이 잘 되지 않는 경우에야 약물저항성 뇌전증임을 판단할 수 있다.

머신 러닝(machine learning) 기법의 발달로 현재 점차 많은 임상적 또는 비임상적 영역에서 머신 러닝을 활용한 컴퓨터가 인간을 대체 또는 보완하고 있으며, 그 범위가 점차 넓어지고 있다. 뇌전증의 경우 뇌파를 학습하여 발작파 또는 발작을 자동으로 검출하는 연구들이 이루어져 왔다.9,10 약물저항성 뇌전증 연구의 경우에도 임상 정보 및 뇌파 정보를 머신 러닝 기법들을 활용하여 분석하고 예측하는 연구들이 이루어져 왔으나 관련 연구가 비교적 많지 않은 수준이다.11 뇌파 정보만을 가지고 연구가 가능한 발작파 검출이나 발작 검출과 달리 약물저항성 뇌전증 예측 연구에서는 약물저항성 뇌전증 여부를 비롯하여 학습에 각종 임상 정보가 함께 필요하므로 이에 상대적으로 연구를 위한 데이터를 모으기가 어렵다는 것이 한 가지 이유이다. 뇌파는 뇌전증 진단 및 평가에 가장 유용하게 사용되는 도구이나, 발작파나 발작 여부와는 달리 약물저항성 뇌전증 여부는 판단이 어렵다. 머신 러닝의 경우 사람의 눈으로 판별이 어려운 패턴을 학습하는 특징이 있으며, 때로는 사람 이상의 정확도를 보이는 경우도 있다.12 그러나 순수히 뇌파 데이터만을 가지고 머신 러닝을 통해 약물저항성 여부를 판별할 수 있는지는 확인된 바가 없다. 또한, 약물저항성 뇌전증 예측에 기존 머신 러닝 알고리즘 외 딥러닝(deep learning)에서 사용하는 다양한 알고리즘을 활용한 연구는 거의 없는 실정이다. 본 연구에서는 임상적 정보를 제외한 순수 뇌파 데이터만으로 약물저항성 뇌전증을 얼마나 정확하게 감별해낼 수 있는지를 알아보고자 하였다.

방법

1. 대상자 선정

본 연구는 서울대학교병원 의학연구윤리심의위원회의 연구 승인 및 환자 동의 면제 승인 취득 하 진행하였다 (IRB No. 1903-072-1017). 2014년 1월부터 2017년 12월까지 서울대학교병원에서 진료를 받은 환자 중 뇌전증 진단을 받은 환자를 대상으로 뇌파 데이터 및 의무기록을 후향적으로 수집하여 분석을 진행하였다. 입원 환자의 경우 의식 저하나 전신상태에 따른 뇌파의 변화 가능성이 있어 이를 배제하고 전신상태가 비교적 양호한 상태에서 촬영된 외래 뇌파만을 사용하였으며, 뇌파를 여러 번 시행한 경우 조건을 만족하는 첫 번째 뇌파만을 학습 및 분석에 사용하였다. 외래에서 촬영한 뇌파가 없는 경우 분석에서 제외하였다. 종양이나 자가면역 또는 기타 뇌염에 동반된 뇌전증의 경우 기저 질환이 예후에 큰 영향을 미치므로 배제하였으며, 추적 기간 중 뇌전증 수술 외 뇌 수술을 받았거나 뇌졸중을 앓은 경우 역시 예후에 영향을 미치므로 배제하였다. 뇌파 촬영 시 협조가 불량하였던 것으로 기록된 뇌파의 경우 운동 잡파(motion artifact) 등으로 데이터 질이 떨어질 가능성이 높아 해당 환자는 분석에서 배제하였다. 마지막으로 뇌파 촬영 구간별 학습능력의 차이를 비교하기 위하여 뇌파 검사 중 각성 뇌파 및 수면 뇌파 총 30분 길이의 뇌파 검사를 시행한 환자의 뇌파 데이터를 분석에 활용하였으며, 각성 또는 수면 뇌파만 촬영한 경우 분석에서 배제하였다.

2. 예후 구분

2년 이상 추적 결과를 토대로 마지막 추적에서 항경련제를 3가지 이상 복용하거나 추적기간 내 뇌전증 수술을 시행한 환자를 약물저항성 뇌전증(비순응군)으로 정의하였으며, 2년 이상 추적에서 항경련제를 2가지 이내로 복용 중인 환자를 순응군으로 구분하였다. 단, 마지막 6개월 이내 항경련제의 감량이 아닌 기타 변경이 있는 경우는 비순응군 가능성이 있어 분석에서 제외하였다.

3. 뇌파의 수집, 전처리 및 학습

선정기준을 통해 총 978명(순응군 581명, 비순응군 397명)의 뇌파 데이터를 확보하여 분석에 활용하였다(Fig. 1). 뇌파별로 사용한 전극의 수나 위치에 차이가 있어 10–20 체계 기준 19채널(Fp1, Fp2, F3, F4, C3, C4, P3, P4, F7, F8, T7, T8, P7, P8, O1, O2, Fz, Cz, Pz)만을 선택하여 분석에 활용하였으며, 이를 평균한 값을 바탕으로 구한 평균 참조 몽타주(average reference montage) 값을 구하였고, 1–50 Hz로 대역 통과 필터(band-pass filter) 적용 후, 10초 단위의 분절(epoch) 기준으로 전위의 진폭(amplitude)이 ±200 μV을 초과하는 데이터를 포함하는 분절은 제외하였다. 수집된 뇌파 데이터는 z점수 정규화(z-score normalization)을 통해 스케일(scale)을 맞추었다. 총 30분 중 처음 2초 데이터를 제외한 초기 1분, 광 자극(photic stimulation) 및 과호흡(hyperventilation)이 끝나고 수면 유도가 시작되는 15분째부터 중반 1분, 그리고 15분 가량 수면 유도가 된 마지막 후반 1분의 데이터를 선별하여 총 3분의 데이터를 합쳐 분석에 사용하였다. 머신 러닝 알고리즘을 훈련시키기 위하여 선정된 978명의 데이터를 무작위로 섞은 후 학습세트(train set) 및 평가세트(test set)로 분할하였다. 이 때, 순응군과 비순응군의 수가 다르므로 학습세트 또는 평가세트에 특정 군이 편향되는 상황을 방지하기 위하여 층화 추출법(stratified sampling)을 사용하여 원본 데이터에서의 각 군의 비율(약 1.46:1)을 유지하며 분할하였다. 머신 러닝 알고리즘 학습에 필요한 적절한 초매개변수(hyperparameter) 선택 및 최종 모델 선택을 위해 5겹 교차검증(5-fold cross validation)을 사용하였으며 이 과정에서도 마찬가지로 층화 추출법을 사용하였고 과적합(overfitting)을 방지하기 위하여 조기 종료(early stopping)방식이 적용되었다. 최종적으로 선택된 모델을 평가세트를 이용하여 평가하였다. 모델의 평가지표로는 정확도(accuracy), 정밀도(precision), 재현율(recall), F1-score 및 AUC (area under the receiver operating characteristic curve)가 사용되었다.

Fig. 1.

Flowchart detailing the inclusion and exclusion criteria and numbers of the study population. EEG, Electroencephalography.

4. 머신 러닝 모델설계

본 연구에 사용된 알고리즘은 크게 3가지로 이루어진다.

첫 번째는 어텐션 매커니즘(attention mechanism)이다.13 어텐션 매커니즘은 입력 데이터에서 공간적 특징에 가중치를 주는 공간 어텐션(spatial attention)과 시간적 특징에 가중치를 주는 시간 어텐션(temporal attention)이 있다. 본 연구에서는 19개의 다수 채널의 뇌파 데이터를 사용함으로써 증가하는 공간 복잡성으로 인한 특징 추출(feature extraction)의 어려움을 해소하고자 약물저항성 뇌전증을 감별하는 데 핵심이 되는 채널을 모델이 자동으로 학습하고, 해당 채널에 가중치를 줄 수 있는 공간 어텐션 기반의 채널 어텐션(channel-wise attention)을 사용하였다.14

두 번째는 합성곱 신경망(convolution neural networks, CNN)이다.15 CNN은 합성곱(convolution) 연산을 통하여 대상 데이터로부터 다양한 특징들을 추출하고, 목적에 부합하는 특징에 가중치를 두어 학습하는 방식으로 동작되는 대표적인 딥러닝 알고리즘 중 하나이다.15,16 CNN 기반의 알고리즘들은 이미지 처리 및 분류에서 뛰어난 성능을 보였으며, 최근에는 생체신호처리 분야에서도 활용되어 별도의 복잡한 전처리 과정 없이 원시신호(raw signal)로부터 자동으로 핵심적인 특징들을 추출할 수 있다는 것이 입증되었다.17 이에 따라 본 연구에서는 19채널의 뇌파로부터 약물저항성 뇌전증을 감별하기 위한 특징들을 추출하기 위한 수단으로 구조가 비교적 간단하면서 분류작업에 준수한 성능을 보인 CNN 기반의 알고리즘 중 하나인 VGGNet 기반의 구조를 채택하였다.18

세 번째는 시간적 합성곱 신경망(temporal convolutional network, TCN) 이다. TCN은 CNN 기반의 순차 모델링 알고리즘 중 하나로 대표적인 순차 모델링 알고리즘인 재귀 신경망(recurrent neural network)보다 우수한 성능을 보였다.19 또한, TCN은 뇌파 기반의 병리학적 진단에서도 뛰어난 성능을 보였다.20-22 TCN의 핵심적인 특징으로는 dilated convolution, causal convolution, residual connection이 있다. Dilated convolution은 기존의 합성곱 연산이 연속된 데이터에 대해서만 합성곱이 가능한 것과는 다르게 dilation factor를 설정하여 일정한 크기만큼 떨어져 있는 데이터에 대하여 합성곱 연산을 수행한다(Fig. 2). 이 때, dilated convolution을 수행하는 영역의 크기를 receptive filed라고 한다. Dilated convolution은 기존의 합성곱에 비해 연산량의 증가 없이 receptive filed로부터 효과적으로 희소한 정보(sparse data)를 추출할 수 있다. Causal convolution은 입력 데이터에서 시간에 따른 인과성(causality)을 고려하여 합성곱 연산을 수행한다. 본 연구에서 사용한 뇌파 데이터의 경우 시계열 데이터이므로 causal convolution을 이용하여 순차 모델링이 가능하다. 일반적으로 dilated convolution과 causal convolution이 결합된 형태인 dilated causal convolution이 사용된다.23 Residual connection은 모델의 구조가 복잡해짐에 따라 다수의 활성화 함수(activation function)을 거치며 원본 데이터의 정보가 과도하게 변형되고 학습이 어려워지는 것을 방지하기 위하여 활성화 함수의 출력 값과 합성곱 이전의 입력 값을 더해준다. 따라서, residual connection은 이미 계산된 특징들의 정보는 유지하고 새로운 특징들만을 효율적으로 추출하는 것이 가능해진다. TCN은 기존 dilated convolution에 residual connection을 추가한 모델로 전체적인 구조는 Fig. 3과 같다.

Fig. 2.

Examples of dilated convolution with a kernel size of 2.

Fig. 3.

Structure of the temporal convolutional network.

본 연구에서는 앞서 언급한 어텐션 메커니즘, CNN, TCN을 모두 결합하여 모델을 설계하였고, 구조는 Fig. 4와 같다. 입력 데이터로 사용한 3개의 1분 길이를 가지는 19채널 뇌파 데이터로부터 채널 어텐션을 통하여 중요한 채널의 가중치를 증가시킨 후, CNN을 통해 공간적 특징들이 추출된다. 이 때, 본 연구에서 사용한 CNN 모델의 구조는 Fig. 5와 같다. 총 5개의 합성곱 모듈(convolution module)을 두었고, 각 모듈은 합성곱, 배치 정규화(batch normalization), 최대 풀링(max-pooling) 층(layer)으로 구성된다. 합성곱층(convolution layer)에서는 각 모듈에 따라 64, 128, 256, 512개의 필터(filter)를 사용하였고, 각 필터의 크기는 3으로 고정하였다. 합성곱층 이후에는 학습 속도를 개선하고 과적합 문제를 최소화하기 위해 출력 값들의 분포를 정규화하는 배치 정규화층(batch normalization layer)24과 여러 특징 중 가장 큰 값을 가지는 특징 n개(본 연구에서는 n = 3)를 출력하는 최대 풀링층을 추가하였다. 이후 TCN을 사용하여 CNN으로부터 추출된 공간적 특징들의 시간적 인과관계를 모델링하고, 이로부터 계산된 시공간적 특징들로부터 전역 평균 풀링(global average pooling)과 전역 최대 풀링(global max pooling)을 사용하여 특징들의 평균값과 최대값을 계산하여 최종적으로 약물저항성 뇌전증을 분류하게 된다. 본 연구에서 사용한 TCN에서는 receptive filed의 크기를 4, 8, 16, 32로 변화시키며 결과를 비교하였다.

Fig. 4.

Structure of the model used in this study (Attention + CNN + TCN). CNN, convolutional neural network (VGGNet); TCN, temporal convolutional network; GAP, global average pooling; GMP, global max pooling.

Fig. 5.

Convolutional neural network structure in this study (VGGNet-based).

결과

분석에 활용된 978명의 평균 연령은 43세(표준편차 16)였고, 남성은 511명, 여성은 467명이었다. 평균 2.3개(표준편차 1.2)의 항경련제를 복용하였으며, 순응군은 581명, 비순응군 397명이었다.

머신 러닝에서 CNN을 기본으로 활용하였으며, 어텐션 메커니즘과 TCN을 추가함에 따른 성능 향상을 검증하고자 최종 평가 모델을 CNN만 사용한 경우, CNN에 어텐션 메커니즘을 추가한 경우, CNN에 어텐션 메커니즘 및 TCN을 추가한 경우로 나누어 머신 러닝을 수행하였다. 이를 평가세트에 적용한 성적은 Table 1과 같다. Table 1에서 precision, recall, F1 score의 값은 비순응군을 기준으로 계산되었다. CNN만을 사용하였을 때보다 어텐션 메커니즘이 추가되었을 때 전체 정확도는 동일하였으나 약물저항성 뇌전증의 감지 정확도가 향상되었으며, 어텐션 메커니즘과 TCN을 모두 추가하였을 때 전반적인 정확도가 더욱 향상되었다. 특히 receptive filed를 8로 하였을 때 약물저항성 뇌전증의 감지 정확도가 가장 높았다(Table 1, Fig. 6).

Comparison of performance according to the models

Fig. 6.

Receiver operating characteristic (ROC) curve and areas under the ROC curve (AUCs) for each model. CNN, convolutional neural network (VGGNet); Att, Attention; TCN, temporal convolutional network.

이는 CNN에서 추출된 특징들이 최대 풀링층으로 인해 35개의 데이터 포인트를 함축하고 있음을 고려할 때 약 10초에 해당하는 길이에 해당하는데, 이는 10초 단위로 시간적 특징을 추출하였을 때 정확도가 가장 높았음을 의미한다. Fig. 7은 성능이 가장 우수했던 receptive filed를 8로 설정한 모델에 대하여 혼동행렬(confusion matrix)을 계산한 결과이다. 순응군을 비순응군으로 오분류한 경우가 비순응군을 순응군으로 잘못 분류한 경우보다 상대적으로 높게 나타났다.

Fig. 7.

Confusion matrix of the CNN + Attention + TCN (Receptive field: 8) model. CNN, convolutional neural network (VGGNet); TCN, temporal convolutional network.

추가적인 분석으로 receptive filed를 8로 설정한 모델에 대하여 항경련제 투여 개수에 따른 정확도를 분석하였으며 이는 Table 2와 같다. 비순응군이 전반적으로 순응군에 비하여 분류 정확도가 높았으며, 순응군 중 항경련제 2회 복용 데이터의 경우 낮은 정확도를 보였다.

Accuracy according to the number of antiepileptic drugs (Receptive filed 8)

고찰

연구 결과 머신 러닝 기법을 활용하여 뇌파 데이터를 학습할 경우, 약물저항성 뇌전증 여부에 대해 일정 정도 수준에서 구분이 가능하였다. 하지만, 예측의 정확도는 실제로 임상에 적용할 수 있는 수준은 아니어서 뇌파 데이터만으로 약물저항성 뇌전증 여부를 판별하기는 어려운 것으로 확인되었다. 단순 CNN보다는 어텐션 및 TCN과 결합한 모델이 성능이 좋았으며, 본 연구에 사용한 모델 기준으로 볼 때 순응군보다는 비순응군에서 약물저항성 여부를 더 정확하게 평가할 수 있는 것을 확인하였다.

뇌파 데이터를 학습하는 방식으로는 실제 사람이 보는 뇌파 데이터 원본 그대로 이미지를 학습하는 방식, 또는 시계열 학습을 하는 방식 및 전통적으로 많이 쓰는 방식인 푸리에 변환(Fourier transform)을 통한 스펙트럼 데이터 등 기타 전처리 기법을 활용하여 얻은 2차적인 정보를 학습하는 방식 등이 있다. 후자의 방식이 기존의 뇌파 연구에서 많이 활용되어 왔으며, 머신 러닝 역시 전통적인 모델들을 활용하기 위해서는 이러한 전처리 등을 통해 특징 추출을 하는 과정이 필요하다. 그러나 CNN을 기반으로 한 다양한 딥러닝 모델들이 개발되어 모델 내 특징 추출 방식부터 학습이 가능하므로 뇌파 데이터 역시 이러한 변환 없이 원본 데이터 그대로 학습하는 것이 가능하게 되었다. 본 연구에서는 기존 연구에서 많이 활용되지 않던 CNN 기반의 딥러닝 모델로 기본적인 전처리만 한 뇌파데이터의 원시신호 자체를 학습하여 결과를 얻어내었으며, 이를 바탕으로 뇌파 데이터 내 학습이 가능한 약물저항성 연관 패턴이 존재할 수 있음을 확인하였다. 그러나, 머신 러닝 알고리즘의 한계로 어떤 패턴을 어떻게 학습하였는지는 정확히 알 수 없으며, 또한 약물저항성 뇌전증 환자의 경우 뇌파 촬영 시점에 발작파 및 서파 등이 더 많이 검출되어 뇌파 학습 데이터에도 더 많이 반영되었을 것이므로 단순히 발작 및 뇌기능 저하와 관련된 패턴을 학습한 결과인지 약물저항성 뇌전증에 특징적인 뇌파를 학습한 것인지는 확실히 구분하는 데에는 한계가 있었다.

본 연구에서 항경련제 투여 개수별 정확도는 항경련제 투여 개수가 2개인 경우에 가장 떨어졌으며, 3개 이후 뚜렷하게 증가하였다가 6개 이상에서 다시 떨어지는 추세를 보였다. 이는 항경련제를 2개 복용하고 있는 환자의 경우 발작이 완전히 조절되지 않는 상태이나 약을 더 늘리지 않고 경과를 보고 있는 환자들이 같이 포함되어 있어 비순응군이 순응군으로 분류되어 학습 정확도 및 예측 정확도를 떨어뜨렸을 가능성이 있다. 6개 이상에서 다시 떨어지는 추세를 보이는 것은 6개 이상 약물을 복용한 환자의 수가 5명뿐이었기 때문에 정확도의 유의미한 감소라 볼 수는 없으며 3개에서 5개 사이에서 정확도가 비슷한 수준으로 유지되었으므로 6개 이상에서도 실제로는 이 정도 정확도를 보일 것으로 간주하는 것이 적절할 것이다. 순응군이 비순응군에 비해 예측 정확도가 떨어지는 이유 중 하나는 앞서 기술한 바와 같이 비순응군에서 발작파 및 서파가 더 많이 포함되어 있기 때문이겠으나, 순응군에서도 뇌파에 따라서는 발작파 및 서파가 많이 포함되어 있을 수 있으므로, 이러한 부분들이 비순응군 여부를 예측하는 패턴으로 활용되었다면 순응군의 예측 정확도를 떨어뜨리는 요인으로 작용하였을 가능성이 있다. 또한 항경련제를 2제 복용하는 경우 비순응군이 포함되어 있어 학습 시 순응군 여부를 구분하는 패턴 학습에 부정적인 영향을 주었을 가능성이 있다.

본 연구는 다음과 같은 한계점이 있어 해석에 고려가 필요하다. 첫째, 본 연구는 약물을 복용하기 전 얻은 뇌파 데이터를 바탕으로 학습을 진행하지 못하였으며, 뇌파 촬영 당시 대부분의 환자들이 한 개 이상의 뇌전증 약물을 복용하고 있었다. 뇌신경의 활동을 조절하는 것이 항경련제의 주요 역할이나, 기존 연구들에서 뇌전증 약을 포함한 다양한 약물들이 뇌파에 영향을 줄 수 있다는 점이 알려져 있어 이러한 부분들이 학습의 정확도를 떨어뜨리는 데 역할을 하였을 가능성이 있다. 따라서, 약물 복용 전 시행한 뇌파를 학습하여 머신 러닝의 성능에 대한 추가 연구가 필요하며, 이러한 본 연구의 한계점이 성능에 영향을 주었다면 실제 머신 러닝을 통한 예측 능력은 본 연구에 비해 개선될 여지가 있을 것이다. 둘째, 본 연구는 후향적 뇌파 데이터를 모아 진행한 연구로 의무기록지 상에 등록된 뇌전증의 진단 환자들을 대상으로 하였으므로, 진단의 정확도나 임상적 세부 구분 및 학습을 저해시킬 수 있는 요소를 포함하는 데이터에 대한 분류 및 배제가 되지 않아 이러한 부분들이 모델 학습의 성능에 영향을 주었을 가능성이 있다. 또한 뇌파 데이터를 뇌파 촬영 시작, 중간 및 마지막 부분을 얻고 초기 및 광 자극 및 과호흡 후, 수면 유도가 된 상태의 세 부분을 얻어 다양한 정보를 넣어 학습의 성능을 높이고자 하였으나, 유발 자극이 끝난 시간이나 수면 유도 정도 등이 환자별로 달라 자극 유발에 대한 효과가 뇌파에 반영된 정도 및 수면 단계 등이 환자별로 다르다는 문제가 있었다. 셋째, 본 연구는 뇌파 데이터 모양 그대로를 CNN을 기반으로 한 모델을 통해 학습시킨 연구라는 점에서 의의가 있으나, 기존 뇌파 연구에 많이 사용하는 주파수 스펙트럼을 활용한 학습 및 딥러닝의 방식이 아닌 전통적인 머신 러닝 기법들을 통한 분석을 같이 하지 않아 이러한 방식의 머신 러닝의 성능과 비교하여 우수한 모델인지에 대해서는 확인하지 않았다. 따라서 이에 대해서는 추후 연구에서 체계적인 비교가 이루어질 필요가 있다. 또한, 뇌파 데이터 모양 그대로를 학습시키고자 했기 때문에 푸리에 변환 등을 통해 뇌파 데이터를 주파수 스펙트럼으로 변환하는 것 외에도 여러 방식의 뇌파 데이터 전처리 방식 역시 본 연구 모델에는 적용되지 않아서 이에 대한 확인이 되지 않았으므로 추후 추가적인 연구가 필요하다.

본 연구를 통해 약물저항성 뇌전증과 관련된 패턴이 뇌파 데이터 내에 포함되어 있을 가능성이 있음을 확인하였으나, 모델의 한계이거나 또는 뇌파가 포함하는 정보의 한계로 뇌파 데이터만을 가지고 약물저항성 여부를 판별하는 것은 어려움을 확인할 수 있었다. 머신 러닝을 포함한 인공지능의 발전이 진료의 영역에서도 부분적으로는 의사의 역할을 대체할 가능성이 있으나 주로는 보완적인 역할을 할 것으로 전망되며, 그 이상의 역할을 위해서는 현재와 같이 단편적인 데이터의 집합을 특정 모델로 학습하는 방식을 넘어서는 변화가 필요할 것으로 생각된다. 보완적인 역할을 하기 위한 성능을 보이기 위해서도 아직 개선해야 할 부분이 많을 것이다. 본 연구가 다양한 한계를 내포하고 있는 만큼 이를 극복할 수 있는 데이터와 더욱 개선된 데이터 전처리 및 학습 모델의 도입을 통한 추가적인 연구들을 진행할 필요가 있다.

Notes

Conflicts of interest

No potential conflicts of interest relevant to this article were reported.

Author contributions

Conceptualization: YWS, KYJ. Data curation: YWS, KSC. Investigation: all authors. Methodology: all authors. Project administration: YWS. Resources: KYJ. Formal analysis: YWS, HSE. Supervision: KYJ. Visualization: HSE. Writing—original draft: YWS, HSE. Writing—review & editing: All authors.

Acknowledgements

None.

References

1. GBD 2015 Disease and Injury Incidence and Prevalence Collaborators. Global, regional, and national incidence, prevalence, and years lived with disability for 310 diseases and injuries, 1990-2015: a systematic analysis for the Global Burden of Disease Study 2015. Lancet 2016;388:1545–1602.
2. GBD 2016 Epilepsy Collaborators. Global, regional, and national burden of epilepsy, 1990-2016: a systematic analysis for the Global Burden of Disease Study 2016. Lancet Neurol 2019;18:357–375.
3. Jung KY. Epidemiology of epilepsy in Korea. Epilia: Epilepsy Commun 2020;2:17–20.
4. Lee SY, Chung SE, Kim DW, et al. Estimating the prevalence of treated epilepsy using administrative health data and its validity: ESSENCE Study. J Clin Neurol 2016;12:434–440.
5. Brodie MJ, Barry SJ, Bamagous GA, Norrie JD, Kwan P. Patterns of treatment response in newly diagnosed epilepsy. Neurology 2012;78:1548–1554.
6. Xue-Ping W, Hai-Jiao W, Li-Na Z, Xu D, Ling L. Risk factors for drug-resistant epilepsy: a systematic review and meta-analysis. Medicine (Baltimore) 2019;98e16402.
7. Blümcke I, Spreafico R. Cause matters: a neuropathological challenge to human epilepsies. Brain Pathol 2012;22:347–349.
8. Kobayashi E, Li LM, Lopes-Cendes I, Cendes F. Magnetic resonance imaging evidence of hippocampal sclerosis in asymptomatic, first-degree relatives of patients with familial mesial temporal lobe epilepsy. Arch Neurol 2002;59:1891–1894.
9. da Silva Lourenço C, Tjepkema-Cloostermans MC, van Putten MJ. Machine learning for detection of interictal epileptiform discharges. Clin Neurophysiol 2021;132:1433–1443.
10. Rasheed K, Qayyum A, Qadir J, et al. Machine learning for predicting epileptic seizures using EEG signals: a review. IEEE Rev Biomed Eng 2021;14:139–155.
11. Yang S, Wang B, Han X. Models for predicting treatment efficacy of antiepileptic drugs and prognosis of treatment withdrawal in epilepsy patients. Acta Epileptologica 2021;Jan. 11. [Epub]. https://doi.org/10.1186/s42494-020-00035-9.
12. He K, Zhang X, Ren S, Sun J. Delving deep into rectifiers: surpassing human-level performance on ImageNet classification. arXiv 2015;1502.01852Available from: https://ui.adsabs.harvard.edu/abs/2015arXiv150201852H.
13. Bahdanau D, Cho K, Bengio Y. Neural machine translation by jointly learning to align and translate. arXiv 2014;1409.0473Available from: https://ui.adsabs.harvard.edu/abs/2014arXiv1409.0473B.
14. Yao X, Li X, Ye Q, Huang Y, Cheng Q, Zhang GQ. A robust deep learning approach for automatic classification of seizures against non-seizures. arXiv 2018;1812.06562Available from: https://ui.adsabs.harvard.edu/abs/2018arXiv181206562Y.
15. Krizhevsky A, Sutskever I, Hinton GE. ImageNet classification with deep convolutional neural networks. Commun ACM 2017;60:84–90.
16. LeCun Y, Bengio Y, Hinton G. Deep learning. Nature 2015;521:436–444.
17. Acharya UR, Oh SL, Hagiwara Y, Tan JH, Adeli H. Deep convolutional neural network for the automated detection and diagnosis of seizure using EEG signals. Comput Biol Med 2018;100:270–278.
18. Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition. arXiv 2014;1409.1556Available from: https://ui.adsabs.harvard.edu/abs/2014arXiv1409.1556S.
19. Bai S, Zico Kolter J, Koltun V. An empirical evaluation of generic convolutional and recurrent networks for sequence modeling. arXiv 2018;1803.01271Available from: https://ui.adsabs.harvard.edu/abs/2018arXiv180301271B.
20. Zhang J, Wu H, Su W, Wang X, Yang M, Wu J. A new approach for classification of epilepsy EEG signals based on temporal convolutional neural networks. Paper presented at: 2018 11th International Symposium on Computational Intelligence and Design (ISCID); 2018 Dec 8-9; Hangzhou, China. p. 80-84.
21. Ingolfsson TM, Hersche M, Wang X, Kobayashi N, Cavigelli L, Benini L. EEG-TCNet: an accurate temporal convolutional network for embedded motor-imagery brain-machine interfaces. arXiv 2020;2006.00622Available from: https://ui.adsabs.harvard.edu/abs/2020arXiv200600622I.
22. Gemein LA, Schirrmeister RT, Chrabąszc P, et al. Machine-learning-based diagnostics of EEG pathology. Neuroimage 2020;220:117021.
23. van den Oord A, Dieleman S, Zen H, et al. WaveNet: a generative model for raw audio. arXiv 2016;1609.03499Available from: https://ui.adsabs.harvard.edu/abs/2016arXiv160903499.
24. Ioffe S, Szegedy C. Batch normalization: accelerating deep network training by reducing internal covariate shift. arXiv 2015;1502.03167Available from: https://ui.adsabs.harvard.edu/abs/2015arXiv150203167I.

Article information Continued

Fig. 1.

Flowchart detailing the inclusion and exclusion criteria and numbers of the study population. EEG, Electroencephalography.

Fig. 2.

Examples of dilated convolution with a kernel size of 2.

Fig. 3.

Structure of the temporal convolutional network.

Fig. 4.

Structure of the model used in this study (Attention + CNN + TCN). CNN, convolutional neural network (VGGNet); TCN, temporal convolutional network; GAP, global average pooling; GMP, global max pooling.

Fig. 5.

Convolutional neural network structure in this study (VGGNet-based).

Fig. 6.

Receiver operating characteristic (ROC) curve and areas under the ROC curve (AUCs) for each model. CNN, convolutional neural network (VGGNet); Att, Attention; TCN, temporal convolutional network.

Fig. 7.

Confusion matrix of the CNN + Attention + TCN (Receptive field: 8) model. CNN, convolutional neural network (VGGNet); TCN, temporal convolutional network.

Table 1.

Comparison of performance according to the models

Model Accuracy Precision Recall F1 score AUC
CNN 0.64966 0.468694 0.702148 0.55517 0.560168
Attention + CNN 0.64966 0.550797 0.684248 0.592735 0.607563
Attention + CNN + TCN (Receptive 4) 0.659864 0.504696 0.743193 0.595615 0.597142
Attention + CNN + TCN (Receptive 8) 0.659864 0.526901 0.813593 0.633798 0.634957
Attention + CNN + TCN (Receptive 16) 0.670068 0.530994 0.774085 0.626646 0.633949
Attention + CNN + TCN (Receptive 32) 0.642857 0.499059 0.821699 0.614814 0.602016

AUC, area under the receiver operating characteristic curve; CNN, convolutional neural network (VGGNet); TCN, temporal convolutional network.

Table 2.

Accuracy according to the number of antiepileptic drugs (Receptive filed 8)

Sensitive group Refractory group
No. of antiepileptic drugs 1 2 3 4 5 6
No. of samples in test set 91 84 75 28 13 3
No. of correct prediction 51 40 55 22 10 2
Accuracy (%) 56.04 47.62 73.33 78.57 76.92 66.67