• 페이스북
  • 트위터
  • 유튜브

"딥페이크 가짜영상 판치는데 대응은 아직 초기단계" [IT포럼]

등록 2023.07.05 10:24:52수정 2023.07.05 10:54:05

  • 이메일 보내기
  • 프린터
  • PDF

원유재 한국정보보호학회장 '제1회 뉴시스 IT포럼'서 'AI 보안전략' 발표

"AI 시대 대응한 적극적 보안 전략·투자 시급" 지적

[서울=뉴시스] 김금보 기자 = 원유재 한국정보보호학회장(충남대 교수)이 5일 오전 서울 중구 앰배서더서울풀만호텔에서 열린 제1회 뉴시스 IT포럼에서 '챗GTP 시대 디지털 보안전략'을 주제로 강연하고 있다. 2023.07.05. kgb@newsis.com

[서울=뉴시스] 김금보 기자 = 원유재 한국정보보호학회장(충남대 교수)이 5일 오전 서울 중구 앰배서더서울풀만호텔에서 열린 제1회 뉴시스 IT포럼에서 '챗GTP 시대 디지털 보안전략'을 주제로 강연하고 있다. 2023.07.05. [email protected]



【서울=뉴시스】송혜리 기자 = "챗GPT로 촉발된 인공지능(AI)시대, 보안 위협은 반드시 존재합니다. 그러나 활용과 확산만이 강조되는 사이, 역기능에 대한 연구와 투자는 이제 걸음마 단계입니다."

원유재 한국정보보호학회장(충남대 교수)이 5일 서울 중구 장충동 앰배서더서울풀만호텔 2층 그랜드볼룸에서 열린 '제1회 뉴시스 IT포럼'에서 이같이 강조했다.

'챗GPT 시대 디지털 보안전략'을 주제로 열린 이날 포럼에선 챗GPT로 대표되는 초거대AI 시대를 맞아 새로운 사이버 위협들을 점검하고, 우리 정부와 기업들이 어떻게 대응해 나갈지를 집중 조명했다.

단 몇 초만에 얼굴·목소리 복제하는 딥페이크 확산

원유재 교수는 초청강연을 통해 "보안 관점에서의 AI는 보안 기술 고도화를 위해 활용하는 기술이자, 위협이 존재해 보안이 필요한 기술일 수도 있다"고 설명했다.

원 교수는 "생성형AI는 사람이 찾지 못한 보안 취약점을 발견하고, 알려지지 않은 위협에 대응하는 용도로 활용성이 높다"면서도 "그러나 악의적으로 조작된 데이터를 학습시켜 AI 모델을 오염시키는 등 AI모델 자체를 대상으로 한 공격이 발생할 수 있어, AI 공격으로부터 안전을 어떻게 담보할 것인가에 대한 고민이 필요하다"고 말했다.

특히, 이러한 역기능 중에선 딥페이크의 고도화·확산을 경계해야 한다고 강조했다. 딥페이크는 AI 기술인 딥러닝과 '가짜'를 의미하는 단어인 페이크의 합성어다. AI기술을 이용해 실제 같은 가상 정보를 생성하는 데, 이것이 악용된 사례로는 신분사칭, 생체인증 우회, 사기, 명예훼손 등 뿐만 아니라 사회 혼란을 야기시키는 가짜 뉴스 등도 있다.

원 교수는 "AI를 이용해 허위정보를 만들어 내는 것들이, 어떻게 사회에 영향을 미칠지 아무도 모른다"면서 "최근엔 몇 마디 말로 콘텐츠로 만들어주는 기술도 등장했는데, 이것은 사람이 만들었는지 AI가 만들었는지 구분조차 안되는 수준"이라고 말했다.

이와 관련, 원 교수는 현재 연구되고 있는 'AI 공격방어 기법 연구 동향'을 공유했다. AI 오작동을 유도하거나 모델을 복제하는 공격을 방어하는 기법이 대표적이다.

다만, 원 교수는 "AI 활용에 대해선 적극적인 투자가 이뤄지고 있는 반면, 역기능에 대한 대응방안에 대한 고민과 투자는 초기 단계"라고 지적했다.
[서울=뉴시스] 김금보 기자 = 원유재 한국정보보호학회장(충남대 교수)이 5일 오전 서울 중구 앰배서더서울풀만호텔에서 열린 제1회 뉴시스 IT포럼에서 '챗GTP 시대 디지털 보안전략'을 주제로 강연하고 있다. 2023.07.05. kgb@newsis.com

[서울=뉴시스] 김금보 기자 = 원유재 한국정보보호학회장(충남대 교수)이 5일 오전 서울 중구 앰배서더서울풀만호텔에서 열린 제1회 뉴시스 IT포럼에서 '챗GTP 시대 디지털 보안전략'을 주제로 강연하고 있다. 2023.07.05. [email protected]


민감한 정보 입력 금지·생성물 재검증 등 보안 수칙 준수해야

이날 원 교수는 사용자가 생성형AI 사용 시 피해를 최소화 할 수 있는 방안들을 소개했다.

특히, 국가정보원이 지난달 공개한 '챗GPT 등 생성형 AI 활용 보안 가이드라인'을 인용해 "비공개·개인정보 등 민감 정보 입력 금지, 생성물에 대한 정확성·윤리성·적합성 등 재검증 등이 필요하다"고 설명했다.

또한 "생성물 활용 시 지적 재산권·저작권 등 법률 침해·위반여부 확인, 연계·확장프로그램 사용시 보안 취약여부 등 안전성 확인, 로그인 계정에 대한 보안설정 강화 등을 준수토록해야 한다"고 당부했다.

원 교수는 "보안은 규범이 있어도 이를 지키지 않는 사람들이 존재한다"면서 "이 때문에라도 AI의 보안은 아무리 강조해도 지나치지 않으며, 지금부터라도 역기능 대응방안을 마련하는 연구에 적극적인 투자가 필요하다"고 강조했다.


◎공감언론 뉴시스 [email protected]

많이 본 기사