건강을 위한 바른 소리, 의료를 위한 곧은 소리
updated. 2025-03-03 06:00 (월)
챗GPT에 딥시크까지...환자정보 유출 위험 커지나?

챗GPT에 딥시크까지...환자정보 유출 위험 커지나?

  • 박승민 기자 smpark0602@gmail.com
  • 승인 2025.01.31 19:16
  • 댓글 0
  • 페이스북
  • 트위터
  • 네이버밴드
  • 카카오톡

민감 개인정보 접근 확률↑,'의료진·환자 정보유출' 우려
의료분야 접목시 '진단·처방 보조수단' 활용 제한해야

ⓒ의협신문
[사진=픽사베이]ⓒ의협신문

챗GPT에 이어 저비용 인공지능 딥시크(DeepSeek)까지 개발되면서 AI 기술이 사회 전반에 큰 영향을 미칠 것으로 전망된다. 이가운데 의료계 내에서는 해당 기술이 의료 분야에 어디까지 활용을 해야하는지를 두고 의견이 쏟아진다.

생성형 인공지능의 영향력이 의료분야 내에서도 상당할 것이라는 예측과 함께 그 활용에서는 분명한 한계를 둬야한다는 우려가 함께 나오고 있는 양상이다.

병원 내 행정 편의성을 가져올 수 있지만 의료진과 환자의 개인정보유출 우려가 제기된다. 검증되지 않은 많은 정보를 학습한만큼 진단과 처방의 보조수단으로만 활용해야한다는 주장도 있다.

최근 중국에서 챗GPT에 이어 딥시크-R1이 개발되면서 전세계적으로 사회 모든 분야에서 인공지능을 활용하는 시대가 열렸다는 평가가 나온다. 

특히 딥시크의 경우 개발된 각종 모델들과 논문들을 오픈 소스로 배포하고 있는만큼 생성형 인공지능의 활용이 더욱 높아질 것으로 전망된다.

의료계 내에서도 챗GPT 등 인공지능 기술에 대한 인지도는 높다. 

다만, 의료계는 이같은 인공지능 기술들이 의료 분야와 접목될 경우 생길 수 있는 부작용에 경계하고 있다. 기술 접목 활용에 한계를 둬야한다는 지적과 함께다.

가장 큰 우려는 환자와 의료진의 개인정보유출이다.

서울아산병원 연구팀이 올해 1월 발표한 연구에 따르면, 챗GPT와 딥시크 등 생성형 인공지능과 그 핵심 기술인 '대규모언어모델'이 보안정치를 피해 민감한 개인정보에 접근할 확률은 최대 80.8%에 달했다. 

수술 준비를 위해 상세한 환자 정보를 제공하는 시스템으로 대규모언어모델을 학습시킨 뒤 의료기록 검토를 요청하는 프롬프트를 인코딩 방식으로 조정한 결과, 대규모언어모델이 대답을 생성하는 과정에서 민감한 환자 데이터는 물론 의료진의 이름이나 전문 분야 등 구체적인 정보가 노출되는 것도 확인됐다.

연구를 진행한 김영학 교수(서울아산병원, 심장내과)는 "의료 분야에서 대규모언어모델을 활용했을 때 기대되는 발전이 크지만, 데이터 보안 강화 없이는 심각한 개인정보유출로 이어질 수 있다"고 우려를 표했다.

인공지능을 의료분야에 활용할 경우 진단과 처방의 보조수단으로만 활용해야한다는 주장도 나온다.

미국 코헨아동의료센터의 연구진은 지난 2023년 10년간 JAMA에 보고된 60건과 NEJM에 보고된 40건의 진단 사례를 챗GPT(3.5버전)에 입력한 결과 챗GPT가 정확한 진단을 내린 건 17건이라고 밝혔다. 

오진한 사례 가운데 72%는 잘못된 진단이었고 11%는 임상적으로 관련이 있더라도 바른진단으로 보기 어려운 경우였다.

실제 의사들은 인공지능 기술을 의료분야에 접목 시키더라도 활용은 '진단과 처방의 보조수단'으로 한계를 둬야한다는 입장이다.

지난 2023년 의사 전용 지식 정보공유 커뮤니티 플랫폼 인터엠디컴퍼니는 의사 1008명을 대상으로 진행한 '챗GPT 활용 현황과 전망'에 대한 설문조사에서 의료 분야 활용 시 가장 중요하게 고려해야 할 사항으로는 '진단·처방의 보조 수단으로만 활용' 의견이 43.8%로 가장 많았다.

대한영상의학회 학술지 'KJR' 편집장인 박성호 교수(서울아산병원, 영상의학과)는 17일 진행된 '진단보조 인공지능의 적절한 적용' 대한영상의학회 포럼에서 의료분야에서의 인공지능 적용을 언급했다.

박 교수는 실제 의료분야 AI에 대해 ▲AI를 통한 진단능력 향상 ▲비전문가의 전문가 수준 향상 ▲의료인의 업무 부담을 낮추고, 이를 통한 번아웃 방지▲궁극적으로 의료의 결과 향상 등의 기대를 보이지만 그동안의 연구 및 사용 경험을 통해 얻은 교훈은 "현재 진료에 단지 AI를 더하는 것만으로는 이런 기대를 충족시키기 어렵다"고 꼬집었다. 

그러면서 ▲의료기기 인허가 때의 AI 성능이 현장 진료 상황에서의 성능이란 보장이 없다는 점 ▲비전문가가 AI를 이용한다고 전문가처럼 되라는 보장이 없다는 점 ▲무작정 AI를 도입한다고 꼭 의료인의 업무 부담이 줄고 효율이 좋아지는 것은 아니라는 점 등을 확인했다고 전했다.

박 교수는 "단지 경제적 이익 및 산업 발전이라는 동기부여에 의한 근시안적 도입은 AI의 보급에도 궁극적으로 장애가 될 수 있고, 환자에게 도움이 되지 않거나 오히려 해가 될 수 있는 AI의 무분별한 확산을 초래할 위험이 있다"며 "의료 인공지능이 제 역할을 하기 위해서는 매우 세밀하고 과학적인 도입이 필요하며 전문가를 통한 성능 모니터링은 필수적"이라고 강조했다.

0개의 댓글
댓글 정렬
BEST댓글
* 기사속 광고는 빅데이터 분석 결과로 본지 편집방침과는 무관합니다.