"국가 기밀 샐라"…'챗GPT' 활용 보안 지침 만드는 정부
서방 'AI 행동강령'으로 챗GPT 부작용 방지
국정원, '챗GPT 보안 가이드라인' 이달 중 배포
[뉴욕=AP/뉴시스] 지난 1월 31일 미국 뉴욕에서 한 휴대전화 화면에서 챗GPT 개발기업 '오픈AI'의 로고가 표시돼 있다. 2023.02.20
【서울=뉴시스】송혜리 기자 = 일부 서방국가들이 개인정보 보호를 이유로 생성형인공지능(AI)인 챗GPT 사용 차단을 고심하는 것으로 알려진 가운데, 우리 정부도 공공기관 '챗GPT 보안 지침'을 만든다.
해당 기술을 활용하는 과정에서 업무상 비밀·개인정보 유출, 가짜뉴스·비윤리적 자료 생성 등 기술 악용 우려가 제기됐기 때문이다.
지난달 행정안전부가 '챗GPT 활용방법 및 주의사항 안내서'를 배포한 데 이어, 국정원은 보안 지침인 '챗GPT 등 생성형 AI 기술 활용 보안 가이드라인'을 만들어 이달 중 배포할 예정이다.
챗GPT 사용 시 '주의'…개인정보·업무상 기밀 공유 우려
국정원은 "이달 중 전체 국가공공기관 및 지자체에 보안가이드라인을 배포할 계획"이라며 "앞으로 지속 등장하는 IT 신기술에 대한 보안대책을 적시 마련해 각급기관의 안전한 정보통신기술 활용을 지원할 방침"이라고 밝혔다.
국정원이 공공기관에서의 챗GPT 사용 시 '주의'를 당부하고 나선 이유는 생성형AI의 한계로 거짓된 정보를 생성하거나, AI학습 또는 이용과정에서 개인정보·업무상 기밀 등 중요한 정보가 유출되는 문제가 발생할 수 있단 지적이 다수 제기됐기 때문이다.
실제, 지난 3월 이탈리아에선 챗GPT를 쓰던 사용자 일부에게 다른 사용자의 대화 이력이 보이는 버그가 발견됐다. 또 오픈AI 측이 가입 확인 이메일을 잘못 발송해 사용자의 이름, 이메일 주소, 결제주소, 신용카드 번호 마지막 네 자리 등이 약 9시간 동안 고스란히 노출되기도 했다.
이 때문에 이탈리아 정부는 '정보보호' 명목으로 챗GPT 접속을 차단했다가 오픈AI의 보안조치 시행을 확인한 뒤 접속을 재개하기도 했다. 또한 미국 상무부 산하 국가통신정보청(NTIA)도 'AI의 안전한 사용 및 신뢰 환경 구축을 위한 AI 규제(안)'을 마련하기 위한 여론 수렴을 시작한 상태다.
국정원 '공공기관서 생성형AI 활용 시 보안성 검토 거쳐야'
해당 안내서에는 기관에 활용 방법, 주의사항 등이 담겨있다. 특히 공공분야에서 반드시 지켜야 하는 주의사항으로는 질문에 비공개 정보나, 개인정보를 입력하지 않도록 주의를 당부하고, 챗GPT가 내놓은 답변은 반드시 사실여부 등 검증과 확인을 거치도록 안내했다.
국정원도 지난달 각 정부 부처 공무원에 챗GPT 이용 시 주의사항을 안내한 바 있다. 국정원은 이를 통해 '챗GPT나 GPT-4 응용프로그램 인터페이스(API)를 활용하려면 국가정보원의 사전 보안성 검토를 받아야 한다'고 전한 것으로 알려졌다.
이달 공개될 국정원 '챗GPT 등 생성형 AI 기술 활용 보안 가이드라인(안)'에는 ▲생성형 AI 기술 개요 및 보안위협 ▲안전한 AI 기술 사용 방안 ▲기관 정보화사업 보안대책 등의 내용이 담길 예정이다.
국정원은 "국가기관에서 AI 기술 사용 시, 민간기술 등을 활용해 정부 차원 AI모델을 행정업무망 내부에 자체 구축하는 형태가 돼야 한다"며 정부기관들의 AI시스템 구축 시 고려사항에 대해 언급했다.
◎공감언론 뉴시스 [email protected]
Copyright © NEWSIS.COM, 무단 전재 및 재배포 금지