국내 최초 이중언어 의료 언어모델 개발…4만5000개 의료 어휘 체계 구축
ⓒ질병관리청 국립보건연구원
국내 병원 전자의무기록을 한국어와 영어가 섞인 상태 그대로 분석할 수 있는 인공지능(AI) 언어모델이 처음 개발됐다. 임상 흉부 CT 판독문 분석에서 종합정확도 0.94를 기록해 실제 의료현장 적용 가능성도 확인됐다.
27일 질병관리청 국립보건연구원에 따르면 한국어와 영어가 혼합된 전자의무기록을 동시에 분석할 수 있는 한·영 이중언어 인공지능 모델을 개발했다.
국내 의료기관에서 생성되는 전자의무기록의 약 80%는 자유서술 형태의 비정형 문서로 구성돼 있다. 한국어와 영어 의학 용어가 혼재돼 있어 단일 언어 기반 모델을 적용할 경우 분석 정확도가 떨어진다는 한계가 있었다.
연구진은 한국어·영어 의료 텍스트를 기반으로 대규모 의료 말뭉치를 구축했다. 의료 도메인과 언어 특성을 반영해 4만5000개 규모의 의료 어휘 체계를 설계했다. 기존 의료 언어모델인 KM-BERT, BioBERT, M-BERT를 기반으로 추가 사전학습을 수행해 성능을 고도화했다.
개발된 모델은 실제 의료현장에서 수집한 흉부 CT 판독문에 적용됐다. 암, 폐렴, 폐색전증 등 주요 질환을 동시에 분류하는 다중 질환 분석을 수행했다. 내부 검증에서 최대 종합정확도 0.946을 기록했다. 외부 검증에서도 종합정확도 0.94를 달성했다.
종합정확도는 질환 판별 정확도와 검출 능력을 종합적으로 평가하는 지표다. 0.9 이상이면 임상 활용 가능성을 검토할 수 있는 수준으로 평가된다.
이번 연구는 국립보건연구원이 추진 중인 ‘비정형 의료 데이터 분석을 위한 인공지능 알고리즘 기술개발 사업’의 일환으로 고려대학교 의과대학과 공동 수행됐다. 의료 문장 의미 유사도 평가와 내부·외부 데이터셋 검증을 통해 모델의 일반화 성능도 확인했다.
연구진이 개발한 이중언어 인공지능 모델은 국제 인공지능 플랫폼 GitHub를 통해 공개될 예정이다.
0
0
기사 공유
댓글
댓글 쓰기