아주대 김석휘 교수, 임상 현장의 AI 활용과 한계 분석
"공개 데이터셋 기반인 챗GPT…정보 신뢰성 검증 어려워"

의료계에서 활용 가능한 잠재력을 지녔다는 생성형 인공지능(AI)인 ‘챗 GPT(chatGPT)’가 임상 현장에 적용되려면 최종 의사결정 단계에서 의사의 검증이 필요하다는 한계를 갖고 있다는 의견이 나왔다(사진출처: 게티이미지).
의료계에서 활용 가능한 잠재력을 지녔다는 생성형 인공지능(AI)인 ‘챗 GPT(chatGPT)’가 임상 현장에 적용되려면 최종 의사결정 단계에서 의사의 검증이 필요하다는 한계를 갖고 있다는 의견이 나왔다(사진출처: 게티이미지).

무한한 잠재력을 지녔다는 생성형 인공지능(AI)인 ‘챗GPT(chatGPT)’가 임상 현장에 적용되려면 최종 의사결정 단계에서 의사의 검증이 필요하다는 의견이 나왔다.

아주의대 병리학교실 김석휘 교수는 이같은 내용이 담긴 ‘ChatGPT 시대, 의료 인공지능이 의사를 대신할 수 있을까?’를 최근 대한내과학회지 ‘The Korean Journal of Medicine’에 발표했다.

김 교수는 “의료계에서 AI가 의사를 대체할 것인가라는 질문을 시작한 지 오래됐지만 챗GPT 이전에는 다소 냉소적인 반응이 대부분이었다”며 “그러나 최근에는 분위기가 많이 달라지고 있고, 대부분의 의사들이 AI에 대한 찬사와 위협을 동시에 느끼고 있는 듯하다”고 했다.

김 교수는 챗GPT를 비롯한 AI 모델이 임상 현장에 적용될 수 있을지 고려하려면 ▲미충족 수요를 해결할 수 있는지 ▲의사를 대신할 수 있을지 여부 등을 살펴봐야 한다고 했다. 이를 따졌을 때, 의사가 현실적으로 수행하기 어려운 부분에서 의사의 결정을 돕는 것은 가능할 것이라고 내다봤다.

김 교수는 “미충족 수요가 너무 높고, 현실적으로 의사가 수행하는 것이 불가능한 일이라면 AI 모델의 임상적 활용이 가능할 것”이라며 “예를 들어 피 검사의 전혈구 계산은 임상적 주요 결정에 꼭 필요한 과정이지만 기계의 힘을 빌려 정확히 셀 수 있고, 기능이 검증된 경우 의사는 이를 믿고 결정한다”고 했다.

이어 “어떤 영역이건 그 결과를 의사가 점검 후 최종 판단을 내릴 수 있다면 이런 모델은 의사를 대체한다기보다는 의사의 역할과 의료의 범주를 확장해주는 역할을 하는 것으로 볼 수 있다”고 덧붙였다.

다만 의사가 어렵지 않게 할 수 있는 부분이라면 AI가 적용되기 어려울 것이라고 했다. 의사가 의학적 결정의 모든 책임을 지는 구조에서 AI 등이 이를 맡게 되면 책임 소재가 불분명질 수 있다고도 했다.

김 교수는 “의사가 할 수 있는 일이라면 진료 현장에 들어오기 어려운 것”이라며 “의사의 최종 점검 없이 AI의 결정에 따라 진료 방침이 결정되는 모델도 그렇다. 모든 의학적 결정의 책임을 의사가 지는 현재 구조에서 특정 모델이 환자의 운명을 바꾸는 결정을 할 경우 책임 소재가 불분명하기 때문”이라고 말했다.

김 교수는 “이러한 논거로 기존에 AI 모델을 개발할 때에도 의사가 최종 결정을 점검할 수 있는지를 중요한 관문으로 보고 있다”며 “챗GPT의 경우에도 모델이 출력한 결과물에 대해 최종적으로 점검하고 결정하는 주체가 의사가 돼야 의료 현장에 들어올 수 있을 것”이라고 강조했다.

챗GPT처럼 공개된 데이터를 기반으로 한 AI 모델의 경우, 포함된 정보에 대해 전문가가 최종적으로 검증하는 장치가 없기에 임상 현장 적용이 어려울 것이라고도 했다.

연구 모델이 의료 현장에 적용되려면 ▲연구 가설과 계획 설정 ▲의학연구윤리심의위원회 심의 ▲연구 모델 학습 위한 데이터 정답지를 받고 기반으로 모델 개발 ▲모델의 정확성·적절성 검증 ▲임상 현장에서 구체적 적응증에 대한 우월성·비열등성 입증 ▲규제 기관에 임상시험 결과 허가 등이 포함된 과정을 거쳐야 한다.

김 교수는 “챗GPT 모델의 기본적인 전제가 제한되지 않은 공개 데이터집합이기에 자료의 적절성을 감독할 수 있는 장치가 없다"며 "열람을 위해 비용을 지불해야 하는 최신 논문의 내용은 제외되고 일반 블로그에 게재된 신뢰성 없는 글이 오히려 주요 데이터로 포함될 수 있다. 모델 개발 과정에 전문가 결정이 포함돼 있지 않은 것도 위험 요소”고 말했다.

이어 “의료계는 근거중심의학의 기조를 놓지 않을 것이며 전문가 집단의 정교한 설계에 의해 개발된 모델만이 실제 환자에게 닿을 수 있을 것”이라며 “챗GPT를 포함한 어떠한 AI 모델이 의료현장에 실제 도입되려면 의사에 의해 검증과 최종 확인을 받아야 하는 구조가 돼야 할 것”이라고 했다.

관련기사

저작권자 © 청년의사 무단전재 및 재배포 금지