• 페이스북
  • 트위터
  • 유튜브

'혐오 논란' 이루다 사태 재발 막자…교육부, AI 윤리원칙 마련

등록 2022.08.10 12:00:00수정 2022.08.10 13:26:43

  • 이메일 보내기
  • 프린터
  • PDF

'교육당사자 안전 보장' 등 선언적 문구 10개항

자율 규제…"법적 근거 추가 마련해 위상 강화"

[세종=뉴시스] AI 챗봇 '이루다'. (사진=뉴시스DB). 2022.08.10. photo@newsis.com

[세종=뉴시스] AI 챗봇 '이루다'. (사진=뉴시스DB). 2022.08.10. [email protected]


[세종=뉴시스]김정현 기자 = 교육부가 최근 기초학력 진단 등 교육 현장에서 활용도가 높아지는 인공지능(AI) 기술에 대한 '도덕적 규범'을 마련했다.

지난해 1월 성희롱과 차별·혐오 논란이 있던 AI '이루다' 논란과 같은 일을 사전에 막기 위해 학생들의 안전을 보장해야 한다는 등의 내용이 담겼다.

교육부는 AI 기술을 교육 현장에 활용하거나 관련 프로그램을 개발할 때 지켜야 할 내용을 담은 '교육분야 인공지능 윤리원칙'을 10일 공개했다.

올해 초 시안을 발표한 후 공청회와 전문가 간담회, 유네스코(UNESCO·유엔 교육과학문화기구) 등 국제기구 의견 조회를 거쳐 그 내용을 최종 확정했다.

내용은 '사림의 성장을 지원하는 인공지능'이라는 대원칙에 근거한 10가지 세부 원칙으로 구성됐다.

주요한 세부 원칙을 살펴보면 '인간 성장의 잠재성을 이끌어낸다'거나 '교육공동체의 연대와 협력을 강화한다'와 같이 선언적인 문구로 만들어졌다.

'인간 성장의 잠재성을 이끌어낸다'는 원칙을 예로 들면 AI 기술을 활용할 때 인간의 기본권을 보장할 수 있도록 노력해야 한다는 식이다.

예컨대 학업중단 예측 시스템을 만들 때 고정된 점수가 아닌 '저위험~고위험'과 같은 표현을 사용하는 식으로 제작할 수 있다. 평가를 받는 학생의 개선 가능성을 존중해야 한다는 원칙을 살리는 것이다.

'교육당사자의 안전을 보장한다'는 원칙도 눈길을 끈다. 교육분야 AI가 지닌 잠재적 위험을 방지하고 실효성 있는 피해 구제를 위해 책임주체를 명확히 설정해야 한다는 내용을 담고 있다.

이는 AI가 학습한 데이터에서 불건전·편향 등의 문제가 발생하지 않도록 해야 한다는 취지다. 지난해 스타트업 스캐터랩이 개발한 '이루다'가 이런 이유로 편견과 혐오 발언, 성적 대화 등 논란을 빚었다.

또 AI 활용에 명분이 있어도 사생활을 침해하지 않아야 한다는 내용의 '데이터를 합목적적으로 활용하고 프라이버시를 보호한다'는 등을 원칙에 담았다.

'혐오 논란' 이루다 사태 재발 막자…교육부, AI 윤리원칙 마련


이번에 마련된 '윤리원칙'은 교육 현장과 개발자, 정책 관계자들이 자발적으로 실천해야 할 '도덕적 규범'이자 '자율 규제'로 강제성은 없다.

교육부 관계자는 "기술 발전이 빨라 예상치 못한 윤리적 이슈에 대응하기 위해 사후적 규제보다 예방적, 자율적 규범이 강조되고 있다"고 설명했다.

다만, 교육부는 '윤리원칙'을 조만간 정식으로 고시하는 한편 실효성을 담보하기 위한 후속 조치를 추진하기 위해 관련 입법 지원에도 나설 방침이다. 현재 국회에 계류된 '인공지능교육진흥법' 등의 입법이 논의될 때 관련 근거를 마련하겠다는 구상이다.

이를 통해 '교육 빅데이터 수집·관리 전문기관'을 설립·지정하는 한편 교사 등이 교육 현장에서 사용할 수 있는 가이드라인을 마련하겠다는 계획이다.

아울러 이번에 마련한 윤리원칙을 각종 AI 윤리교육 연수 교육자료나 에듀테크 기업과의 협업 시 가이드라인으로 활용할 예정이다. 번 원칙의 타당성에 대한 검토를 실시해 주기적으로 보완할 방침이다.

정부 차원의 AI 윤리 자율 규제가 나온 것은 이번이 처음은 아니다. 2020년 국토교통부의 '자율주행차 윤리 가이드라인', 같은 해 범정부 합동 '사람이 중심이 되는 인공지능 윤리기준' 등이 나온 바 있다.

지난해 8월 서울시교육청이 '인공지능의 공공성 확보를 위한 현장 가이드라인'을 마련하기도 했다.

지난해 11월 UNESCO도 '인공지능 윤리 권고'를 내놓고 우리나라를 포함한 회원국들에 법적 절차를 포함한 AI 윤리 권고를 적용할 것을 제안한 바 있다.


◎공감언론 뉴시스 [email protected]

많이 본 기사