• 페이스북
  • 트위터
  • 유튜브

"AI 윤리·성능 다 잡으려면?"…정부 가이드라인 구축될까

등록 2023.07.05 14:00:00수정 2023.07.05 15:40:06

  • 이메일 보내기
  • 프린터
  • PDF

과기정통부, '제2차 AI 윤리정책 포럼' 개최

윤리·기술·교육 분과 논의…핵심은 자율규제

[서울=뉴시스]과학기술정보통신부는 5일 서울 서초구 엘타워에서 정보통신정책연구원(KISDI), 한국정보통신기술협회(TTA)와 함께 '제2차 인공지능 윤리정책 포럼'을 개최했다. (사진=뉴시스DB) 2023.04.13. *재판매 및 DB 금지

[서울=뉴시스]과학기술정보통신부는 5일 서울 서초구 엘타워에서 정보통신정책연구원(KISDI), 한국정보통신기술협회(TTA)와 함께 '제2차 인공지능 윤리정책 포럼'을 개최했다. (사진=뉴시스DB) 2023.04.13. *재판매 및 DB 금지

[서울=뉴시스]윤현성 기자 = 정부가 챗GPT 등 생성형 인공지능(AI)의 확산에 발 맞춰 AI 윤리의식과 신뢰성을 높이기 위한 혁신 방안에 대해 업계와 논의에 나섰다. AI 신뢰성을 담보하는 동시에 활용도까지 촉진할 수 있는 방안을 찾아낸다는 목표다.

과학기술정보통신부는 5일 서울 서초구 엘타워에서 정보통신정책연구원(KISDI), 한국정보통신기술협회(TTA)와 함께 '제2차 인공지능 윤리정책 포럼'을 개최했다.

이번 AI 윤리정책 포럼은 AI의 윤리적 개발 및 활용에 대해 논의하고 AI 신뢰성 검·인증 등 주요 정책과제에 대한 의견을 수렴하기 위해 개최됐다.

최근 챗GPT 등 초거대·생성형 AI가 빠르게 확산되면서 국제적으로 책임감 있는 AI 혁신의 중요성이 강조되고 있다. 이에 AI 윤리의식을 확산하고 민간의 자율규제 환경을 조성하기 위한 논의의 장으로 AI 윤리정책 포럼에 대한 기대감이 커지고 있다.

포럼은 윤리분과, 기술분과, 교육분과로 구성됐다. 이번 포럼에서는 분과별로 생성형 AI 활용과 관련한 윤리적 쟁점들을 발표하고, 윤리와 신뢰성을 담보하면서 초거대·생성형 AI의 활용을 촉진할 수 있는 방안에 대해 논의했다.

먼저 윤리분과 세션에서는 노태영 위원(김·장 법률사무소 변호사)이 '법률서비스 분야에서의 생성형 AI 활용과 윤리적·법적 쟁점'이라는 주제로 발표를 진행했다. 노 위원은 개인 법률상담이나 기업 계약서 작성 등에 사용될 수 있는 생성형 AI는 민감한 정보를 처리하고 산출과정에 대한 설명이 어려워 이용자에 대한 안전성 및 책임성·연대성 등이 고려돼야 한다고 강조했다.

기술분과 세션에서는 김지관 한국IBM 실장이 '신뢰 가능한 AI 구현을 위해 기업이 고민해야 할 것들'이라는 주제로 데이터, AI 모델, 위험관리 체계라는 3가지 측면에서 고려해야 할 부분을 발표했다. 그는 기업이 데이터 및 AI 모델의 소유 및 사용주체를 명확히 하고 이에 대한 관리를 수행할 수 있도록 정부에서 가이드라인을 제시해야 한다고 역설했다.

마지막 교육분과 세션에서는 김기영 아티피셜소사이어티 대표가 '생성형 AI를 활용한 맞춤형 교육의 현주소 및 방향성'이라는 주제를 맡았다. 김 대표는 향후 교육 분야에서 생성형 AI의 활용도가 높아질 것으로 예상되나 다른 영역에 비해 엄격한 윤리적 기준이 적용돼야 하므로 인간 전문가에 의한 감수 및 평가는 여전히 중요할 것이라고 진단했다. 그는 특히 학습데이터의 진실성, 저작권 확보, 다양성 및 인간의 엄격한 검증과 관련된 부분을 강조했다.

엄열 과기정통부 인공지능기반정책관은 "AI가 주는 혜택과 함께 AI의 잠재적 위험성, 부작용에 대한 우려가 증가하는 상황에서 책임감 있는 AI 사용이 어느 때보다 중요해지고 있다"며 "오늘 제2차 AI 윤리정책 포럼에서 논의된 사항을 반영해 우리 기업이 자율적으로 AI 윤리·신뢰성을 확보할 수 있도록 가이드라인 제시 및 검증체계 마련 등 정부에게 요청한 사항에 대한 지원을 아끼지 않겠다"고 말했다.


◎공감언론 뉴시스 [email protected]

많이 본 기사