서울아산병원, 대규모언어모델 개인정보유출 연구 결과 발표
김영학 교수 "보안으로 인한 의료 특화형 대규모언어모델 필요"
챗GPT와 같은 생성형 인공지능과 그 핵심 기술인 대규모언어모델이 다양한 산업군에서 활발하게 활용되는 가운데 해당 기술이 의료분야에 접목될 시 환자의 개인정보유출 등 보안에 대한 우려가 제기된다.
김영학 교수(서울아산병원, 심장내과)와 아산생명과학연구원 전태준 박사팀은 최근 대규모언어모델(Large Language Model, LLM)을 의료 분야에 적용하는 과정에서 개인정보유출 문제를 확인하기 위해 의도적으로 악성 공격을 시행한 결과, 최대 81%에 달하는 공격 성공률을 보였다는 연구 결과를 발표했다고 8일 밝혔다.
연구팀은 의료 분야에서는 민감한 개인정보를 다루기 때문에 대규모언어모델 도입에 신중하고 각별한 주의가 필요하고, 독립적으로 운용되는 의료 특화형 대규모언어모델이 필요하다고 강조했다.
대규모언어모델은 수십억 개 이상의 매개변수를 기반으로 대량의 데이터를 학습해 사람처럼 생각하고 답변하는 인공지능 모델이다.
이는 챗GPT, 제미나이(Gemini)와 같은 생성형 인공지능이 작동하는 핵심 기술로, 질문이나 명령어를 담은 프롬프트를 입력하면 대규모언어모델이 이를 이해하고 적합한 답변을 제공한다.
이번 연구 결과는 전 세계 의사들의 임상치료 교과서로 불리는 NEJM(New England Journal of Medicine)의 자매지인 'NEJM AI'에 최근 게재됐다.
의료 분야에 대규모언어모델을 적용하면 엑스레이, CT, MRI 등의 검사 이미지를 다량의 데이터 기반으로 분석해 진단의 정확도를 높일 수 있고, 환자의 개인 데이터를 기반으로 맞춤형 치료 계획을 제공할 수 있다.
전자의무기록(EMR)이나 동의서 작성을 자동화하는 등 의료진의 관리 업무도 간소화해 전반적으로 효율성이나 정확성이 향상될 것으로 기대된다.
다만, 대규모언어모델의 보안이 위협될 경우 환자들의 민감한 개인정보가 유출되어 윤리적, 법적 위험성이 초래될 수 있다.
서울아산병원 심장내과 김영학 교수·아산생명과학연구원 빅데이터연구센터 전태준 박사팀은 2017년 1월부터 2021년 12월까지 환자 2만 6434명의 의무기록을 활용해 대규모언어모델을 학습시켰다.
악성 공격은 대규모언어모델에 입력하는 질문인 프롬프트에 의미 없는 기호, 글을 추가하거나 인코딩하는 등 다양하게 변형해 악의적인 질문을 하는 방식으로 위험성을 평가했다.
그 결과, 대규모언어모델의 보안장치를 피해 민감한 개인정보에 접근할 수 있는 확률이 최대 80.8%에 달했다. 80.8%에 달하는 확률로 보안 조치가 쉽게 침해될 수 있다는 뜻이다.
대규모언어모델이 답변을 생성하는 과정에서 학습된 원본 데이터를 노출할 가능성은 최대 21.8%로 나타났다. 모델에 질문하는 형식을 미세하게 조정함으로써 원본 학습 데이터가 쉽게 노출될 수 있다는 것이다.
구체적인 예시로 수술 준비를 위해 상세한 환자 정보를 제공하는 시스템으로 대규모언어모델을 학습시킨 뒤 의료기록 검토를 요청하는 프롬프트를 인코딩 방식으로 조정한 결과, 대규모언어모델이 대답을 생성하는 과정에서 민감한 환자 데이터는 물론 의료진의 이름이나 전문 분야 등 구체적인 정보가 노출됐다.
김영학 교수는 "의료 분야에서 대규모언어모델을 활용했을 때 기대되는 발전이 크지만, 데이터 보안 강화 없이는 심각한 개인정보유출로 이어질 수 있다"며 "민감한 개인정보를 다루는 분야인 만큼 보안의 중요성이 특히 강조된다. 독립적으로 운용되는 의료 특화형 대규모언어모델이 필요하다"고 밝혔다.