개인정보위, AI 프라이버시 위험 관리모델 공개
유형·용례 따라 구체적 리스크 식별·측정 수행
리스크 경감 위한 관리·기술적 안전조치도 안내
개인정보위 로고(사진=개인정보위 제공) *재판매 및 DB 금지
인공지능(AI) 모델·시스템을 개발하거나 제공할 때 프라이버시 리스크를 체계적으로 관리할 수 있는 정부 차원의 모델이 마련됐다.
개인정보보호위원회는 AI 기업이 자율적으로 프라이버시 리스크를 관리할 수 있도록 안내하는 '안전한 AI·데이터 활용을 위한 AI 프라이버시 리스크 관리 모델'을 19일 공개했다.
이번 리스크 관리 모델은 국내외 학계, 정부, 연구기관 등에서 논의되고 공감대가 형성되고 있는 AI 데이터 처리 특성, 프라이버시 리스크 유형, 리스크 경감방안관리체계, 기업 사례 등을 집대성해 안내하는 자료다. 다만, 본 안내서에서 제시되는 모든 개별조치의 이행이 반드시 요구되는 것은 아니란 게 위원회 설명이다.
AI 유형·용례별로 리스크 식별·측정 할 수 있도록 안내
이를 토대로 AI 유형·용례별로 구체적 리스크를 식별하고, 리스크 발생확률, 중대성, 우선순위, 수용가능성 등 정성적·정량적 리스크 측정을 수행할 수 있다. 이후, 리스크에 비례하는 안전조치를 마련함으로써 리스크를 체계적으로 관리할 수 있다.
이러한 리스크 관리는 리스크의 조기 발견과 완화를 위해 개인정보 보호 중심 설계(PbD) 관점에서 AI 모델·시스템의 기획·개발 단계부터 이루어지는 것이 바람직하며, 이후 시스템 고도화 등 환경 변화에 따라 주기적·반복적으로 이뤄지는 것이 권장된다.
다음으로 프라이버시 맥락에서 AI 리스크 유형을 예시로 제시했다. 국내외 문헌조사, 기업 인터뷰 등을 통해 파악한 AI 기술의 고유한 특성과 기능 및 데이터 요구사항 등으로 인해 새롭게 나타나는 정보주체 권리침해, 그리고 개인정보 보호법 위반 리스크 등을 중점적으로 다뤘다.
구체적으로 AI의 생애주기(life-cycle)에 따라 AI 모델·시스템의 기획·개발 단계, 서비스 제공 단계에서 발생하는 리스크를 구분해 제시했으며, 서비스 제공 단계는 생성 AI와 판별 AI를 구분함으로써 AI 용례·유형에 따른 구체성을 더했다.
가명익명·중복 제거 등 최적의 안전조치 조합 마련할 수 있도록 설명
먼저 관리적 안전 조치에는 ▲학습데이터 출처·이력 관리 ▲허용되는 이용방침 마련 ▲AI 프라이버시 레드팀을 통한 개인정보 침해유형 테스트 및 조치 ▲부적절한 답변 등에 대한 정보주체 신고방안 마련 등이 포함된다. 또 학습데이터에 민감한 정보가 포함될 개연성이 높거나 대규모 개인정보가 포함되는 경우 ▲개인정보 영향평가 수행도 권장된다.
기술적 안전 조치에는 ▲AI 학습데이터 전처리(불필요한 데이터 삭제, 가명익명화, 중복제거 등) ▲AI 모델 미세조정을 통한 안전장치 추가 ▲입력·출력 필터링 적용 ▲차분 프라이버시 기법의 적용 등이 포함된다.
마지막으로 리스크 관리체계를 제시했다. AI 환경에서는 개인정보보호, AI 거버넌스, 사이버보안, 안전·신뢰 등 다양한 디지털 거버넌스 요소가 상호연관된다.
이에 따라 전통적 프라이버시 거버넌스의 재편이 필요하며, 이때 개인정보 보호책임자(CPO)의 주도적 역할책임감이 중시된다. 또 리스크에 대한 다각적·전문적 평가를 수행할 수 있는 담당조직을 구성하고, 체계적 리스크 관리를 보장하는 정책을 마련하는 것이 바람직하다.
개인정보위는 추후 AI 기술 발전, 개인정보 관련 법령 제·개정, 글로벌 동향 등을 고려해 리스크 관리 모델을 지속적으로 업데이트할 계획이다. 또 소규모 조직, 스타트업 및 AI 개발 유형(미세조정, 검색증강(RAG) 등) 등 세부대상, 영역 등에 특화된 안내자료도 조만간 구체화될 예정이다.
◎공감언론 뉴시스 [email protected]
Copyright © NEWSIS.COM, 무단 전재 및 재배포 금지