“의료 AI, 다국적 IT기업도 실패…정부가 연구까지 주도해야”
성균관대 서성욱 교수 “보건의료 AI 사실상 '제로'‥임상진료·개인정보에 경험 부족 탓
실질적인 임상 '의사결정' 돕는 인공지능 설계하려면 비편향 정보 학습한 AI 설계 환경 必”
김상은 기자 kims@yakup.com 뉴스 뷰 페이지 검색 버튼
입력 2021-09-30 06:00   수정 2021.10.01 14:01
인공지능을 활용한 임상 기술이 의학에 적용된다면 개인 맞춤형 치료가 가능할까?

대한민국의학한림원은 제 16회 학술포럼을 개최하고 보건의료 데이터의 활용 방안과 이에 대한 정부정책의 방향을 논의하는 자리를 마련했다. 이날 성균관의대 서성욱 교수는 ‘인공지능 의료기기는 무엇이며 어떻게 평가할 것인가’를 주제로 발표했다.

서성욱 교수는 “영상을 분석하는 기술이 발달이 되면서 이를 의학에 적용해 ‘폐암 진단율 99%’와 같은 진단예측 성과를 기대하고 있지만 임상현장에서 인공지능이 제대로 활용하려면 먼 미래에나 가능한 일”이라고 내다봤다. 

“최근 2021년 3월에 네이처 메디슨 인텔리전스라는 논문에서 이제 최근까지 나온 415개의 인공지능 모델들 이제 검증을 했습니다. 검증 결과 임상에서 사용할 수 있는 모델이 하나도 없더라는 것입니다”

실제로 미국에서는 2018년 IBM에서 개발한 왓슨 로 온콜로지(Watson for Oncology)의 질병 예측 정확도가 50% 내외로 떨어지는 것이 확인된 바 있다. 그야말로 ‘인간 의사’보다도 정확도가 떨어지는 것. 

구글도 헬스케어 플랫폼을 열었지만 환자들에게 큰 호응을 얻지 못했고 이후 2016년 구글 브레인이라는 리서치 기관에서 데이터 유출사고가 일어난데 이어 2019년에는 구글이 시카고 대학의 데이터를 활용해 공동연구를 진행했다가 환자들의 소송으로까지 번져 협업이 무산됐다. 페이스북의 호스피탈 데이터 프로젝트에서도 데이터 유출 사건이 있었던 것은 마찬가지.

서성욱 교수에 따르면 의료 인공지능 기기는 기계학습방식이며 비지식 기반의 소프트웨어이자, 실시간 학습으로 인해 동적인 변화를 예고하고 학습대로 결과를 도출하기 때문에 인위적인 조작이나 개입이 어려운 특징이 있다. 

이러한 특징을 잘 활용한다면 의료영상을 포함한 데이터 기반의 진단이 가능하고 더 나아가 AI가 치료 처방 결정을 지원하고 추가적인 정보 검색이나 위험을 고지할 수 있겠지만 반대로 잘못 설계된 인공지능을 사용한다면 악의적인 목적으로 학습된 데이터 때문에 인공지능 기기가 환자에게 해를 끼칠 수 있다. 서성욱 교수는 “악의적으로 단순한 몇 개의 잘못된 데이터를 반복적으로 학습시켜도 인공지능 시스템 전체가 망가질 수 있다”고 경고했다.  

서성욱 교수는 “인공지능 분야에서 기술을 보유하고 자본력도 갖춰진 다국적 기업들이 의료 인공지능 기기 개발을 주도해 왔지만 이전에 임상 진료나 개인정보를 다뤘던 구체적인 경험이 없기 때문에 의학분야의 인공지능 개발에서 성공을 거두지 못했다”고 설명했다.

◆의료 AI 설계에 데이터 윤리·의학적 고려 필요…국가가 나서 제도 및 방법론 제시해야

여기에 서 교수는 “국가가 나서 인공지능 의료기기가 갖추어야 할 기본 요건, 규칙과 학습 내용 등에 대한 어떤 전문가 집단이 구성돼 국가 차원에서 검증할 수 있어야 한다”며 “의료 인공지능 분야의 윤리적, 법률적, 사회적으로 발생 가능한 문제를 연구하고 선제적으로 대응하려는 연구가 활성화 되어야 한다”고 주장했다. 서성욱 교수는 국내의 데이터 3법을 예로 들며 "개인정보의 범위를 명확히 정하는 것이 EU-GDPR(general data protection regulation) 기준에도 적합하다”고 부연했다.

또한 서 교수는 “의료기기의 주된 기능에서 정확한 진단이 가능하려면 인공지능 모델에서 설명 가능성(explainability)과 해석 가능성(interpretability)을 강화할 필요가 있다”고 강조했다. 실제 의료 현장에서 인과 관계를 파악하는 데에 실용적인 정보를 제공할 수 있어야 인공 지능이 내놓은 아웃풋(out put)값을 쓸 수 있기 때문. 

불확실성의 수치화 면에서도 “‘정답의 분포’를 알려주는 인공지능은 임상 현장에서 활용이 가능하지만 ‘정답’만을 도출하는 인공지능은 무의미하다”고 말했다. 불확실성을 피하고자 함은 의사결정과 밀접한 연관이 있기 때문이라는 것이 서 교수의 설명이다.

덧붙여 “인공지능이 학습한 데이터를 넘어서 일반화된 결과를 도출하기 어렵기 때문에 학습 단계에서 인풋(in put) 데이터가 편향되지 않은지 확인이 필요하다”고 말했다. 또한 “시간이 흐를수록 임상적 상황과 치료 방침, 환자군이 달라진다면 AI는 이에 맞게 학습하기 때문에 지속적인 모니터링이 필요하다“고 말했다. 
전체댓글 0개
    등록된 댓글이 없습니다.