AI가 보는 CEO는 '백인남성', 사회복지사는 '여성'…"젠더편향 심각"
여성정책연구원, 인공지능과 젠더 혁신 포럼 개최
"우리 사회 인식 반영…차별금지 원칙 법제화 해야"
[서울=뉴시스] 인공지능 모델인 '스테이블 디퓨전(Stable Diffusion)'이 생성한 CEO 이미지. 2024.08.29. (자료=한국여성정책연구원 제공) *재판매 및 DB 금지
[서울=뉴시스] 고홍주 기자 = 생성형 인공지능(AI) 기술이 우리 사회 각 분야에서 활발히 이용되고 있는 가운데, 성별편향이 심각해 이를 조정할 수 있는 방안 마련이 시급하다는 연구결과가 나왔다.
한국여성정책연구원은 29일 오후 한국과학기술젠더혁신센터·한국양성평등교육진흥원과 함께 '성 격차 해소를 위한 인공지능과 젠더 혁신'을 주제로 제137차 양성평등정책포럼을 개최했다.
이날 발제를 맡은 김애라 여성정책연구원 부연구위원은 '인공지능 젠더 편향 완화를 위한 국내 법제화 대응 방안'을 발표했다.
해당 연구에 따르면, 텍스트 입력 시 이미지를 생성해주는 AI모델인 '스테이블 디퓨전(Stable Diffusion)'에 특정 단어를 입력하면 성별 편향이 강하게 나타났다. 예를 들어 '엔지니어'를 검색하면 안전모를 쓴 남성이, '사회복지사'와 '가사도우미'를 검색하면 비백인여성이, 'CEO'를 검색하면 백인남성의 이미지가 생성됐다.
지난 1988년부터 2021년까지 133개 AI시스템 편향성을 추적한 연구에 따르면 44%가 성별 편향성을 보였고, 1/4 이상이 성별과 인종 편향성이 모두 나타나는 것으로 나타났다.
국내에서도 널리 사용되고 있는 챗GPT에서도 의사는 남성, 간호사는 여성과 같은 방식으로 특정 직업에 성별을 할당하는 것으로 나타났고 여성은 요리와 청소 등 성역할과 연결되기도 했다.
김 부연구위원은 "사용자들이 AI로부터 정치, 경제, 사회, 문화 등에 걸친 다양한 정보들에서 성별에 따른 성역할과 규범들을 직·간접적으로 반복해서 접할 때 성별 편견과 차별이 강화되고 재생산될 가능성이 높아진다"고 지적했다.
이어 "젠더편향은 우리 사회 전반의 성별 인식에 근거하고 있다"며 "과거 챗봇 '이루다'나 최근 '딥페이크' 사태처럼 의도하지 않은 차별 결과가 나타나는 만큼 차별을 적극적으로 조정하려는 노력을 통해서만 바로잡을 수 있다"고 강조했다.
김 부연구위원은 이 같은 젠더편향 완화를 위해 AI 관련 법에 ▲차별금지 원칙 명시 ▲AI 위험관리 대상에 잠재적 편향, 차별가능성 포함 ▲젠더편향 측정 기준으로 공정성 도입 등이 명시돼야 한다고 제언했다.
또 AI 시스템 개발에 있어 표준화된 개발 지침 시행 근거조항을 마련하고, 젠더편향 관리 감독 및 제재 규정 마련, AI 위험평가 의무 명시 등을 제시했다.
이건명 충북대학교 소프트웨어학부 교수도 이날 '젠더 혁신에서 데이터 형평성의 역할'을 주제로 발제했다.
이 교수는 "데이터는 과거에 발생했던 것들을 기록해놓은 것으로, 해당 데이터가 어떤 관점에서 본 것인지가 중요하다"며 "데이터를 어떻게 수집하고 분석, 해석할 것인가가 매우 중요하다"고 주장했다.
예를 들어 아마존의 AI 채용 프로그램에서는 경력 10년 이상의 남성 지원자 위주로 후보자를 선택했는데, 이는 당시 남성 우위의 IT업계 현실이 그대로 반영된 것이었다. 지원서에 여성이라는 단어나 여성 관련 활동이 들어가면 사실상 불이익으로 해석돼 의도치 않은 차별이 발생했다고 한다.
이 교수는 "사회적 데이터에는 차별적 요소가 있을 수 밖에 없는데, 차별이 발생하지 않도록 데이터가 수집되고 저장되고 관리, 분석될 필요가 있으며 공개되도록 해야 한다"며 "차별 관점에서의 수집 데이터 모니터링과 이를 통해 만들어진 분석 결과 및 AI 모델에 대해서도 지속적인 모니터링이 필요하다"고 말했다.
◎공감언론 뉴시스 [email protected]
Copyright © NEWSIS.COM, 무단 전재 및 재배포 금지