'챗GPT' 도입하는 韓기업들…AI의 거짓말·편향성 '숙제'
카톡·토스에 챗GPT 속속 도입…사용자 경험·편의성 확대
최문정 카이스트 교수 "챗GPT 편향성 등 사회적 영향 고민해야"
10일 IT 업계에 따르면 오픈AI가 챗GPT API(응용프로그램 인터페이스)를 공개한 이후 카카오톡, 라인 등 메신저는 물론 토스 금융앱까지 다양한 서비스에서 챗GPT를 활용한 AI 챗봇 서비스가 속속 도입되고 있다.
AI 스타트업 업스테이지가 광학문자인식(OCR) 기술과 챗GPT를 카카오톡에 더해 출시한 '아숙업(AskUp)'은 나흘 만에 채널친구 4만 명을 모았다. 우리 국민들도 디지털 신문명에 빠르게 적응해가고 있는 것이다.
아숙업은 챗GPT에 업스테이지의 OCR 기술을 결합해 사용자가 문서의 사진을 찍거나 전송하면 그 내용을 이해하고 답변할 수 있는 기술이다. 사용자는 텍스트로 작성된 문서나 손글씨 이미지 등을 아숙업에 보내면 번역된 내용과 함께 답변을 받을 수 있다. 또한 학습 자료, 사업자 등록증, 계약서 등 다양한 서류도 질문하면 필요한 정보를 제공하고 텍스트로 처리도 한다.
김성훈 업스테이지 대표는 "아숙업은 AI와 인간 사이의 소통과 협업의 가능성을 보여주는 서비스로, 많은 사람들이 AI의 편리함과 재미를 경험할 수 있도록 하고 싶다"고 말했다.
지난 7일부터 토스 앱에서도 챗GPT 서비스를 이용할 수 있다. 토스 앱 전체 메뉴에서 '챗GPT에게 물어보기' 기능을 누르면 오픈AI의 웹사이트를 방문하지 않아도 챗GPT에게 다양한 질문을 하고 답변을 받을 수 있다.
토스 운영사 비바리퍼블리카는 "답변의 주체는 토스가 아닌 오픈AI에 의해 제공된다. 정식 런칭 전 선보이는 베타 서비스로, 회사의 사정에 따라 사전 고지 없이 변경 또는 종료될 수 있다"고 안내했다.
한국형 챗GPT 서비스도 나왔다. 체인파트너스는 오픈AI가 지난 1일 첫 공개한 GPT 3.5 터보 모델을 서비스에 적용하고, 한글 대화에 최적화한 '네이티브' AI 채팅 서비스를 출시했다. 사용자가 네이티브에 한글로 질문하면 네이티브는 이를 자동으로 영어로 번역해 챗GPT와 대화 나눈다. 챗GPT가 영어로 답변한 내용은 다시 즉각 한글로 번역돼 사용자에게 제공되는 게 특징이다.
표철민 체인파트너스 대표는 “대규모 언어 모델(LLM)이 경쟁적으로 출시됨에 따라 앞으로 오픈AI 사의 챗GPT뿐 아니라 다양한 LLM 모델을 복수로 붙여 AI 분야의 고객 접점으로 발전시켜 나갈 것"이라고 말했다.
때때로 거짓말하고 편향적인 챗GPT…"사회적 영향 고민해야"
[뉴욕=AP/뉴시스] 지난 1월 31일 미국 뉴욕에서 한 휴대전화 화면에서 챗GPT 개발기업 '오픈AI'의 로고가 표시돼 있다. 2023.02.20
다만 현 시점에서의 챗GPT는 부정확성, 편향성, 제한적인 정보 제공 측면에서 한계를 보이고 있다. 오픈AI 조차도 챗GPT 첫 화면에 ▲때때로 잘못된 정보를 생성할 수 있고, ▲때때로 유해한 지침이나 편향된 내용을 만들어낼 수 있으며, ▲2021년 12월 이후의 정보에 대해선 제한된 지식을 가지고 있다고 공지한다.
이를테면 현재 대한민국의 대통령이 누구인지 질문하면 "문재인 대통령"이라고 답하거나, 전세계 AI 기반 서비스의 AI 뇌를 지도화 하면 '건강한 백인 젊은 남성'으로 대표되는 사례를 들 수 있다.
실제로 챗GPT의 전신인 마이크로소프트의 챗봇 '테이'는 2016년 여성혐오적이고 인종차별적인 콘텐츠를 쏟아내 비판을 받으며 역사 속으로 사라졌다.
최문정 카이스트 과학기술정책대학원장은 지난 8일 과학기술정보통신부가 개최한 AI 최고위 전대화에서 "검색엔진 이후 새로운 지배력을 가진 챗GPT가 등장했다. 이용자가 정보를 ‘선별하고 선택하는 과정’이 생략되고 챗GPT가 최종 지식을 제시한다"며 우려했다.
챗GPT가 일상생활에 필수적인 기술이 됐을 때 사회에 미치는 영향을 고민할 시점이라는 것이다.
최 원장은 "챗GPT가 불평등을 재생산하거나 강화할 수 있다"고 우려했다. 이어 "AI는 인간이 만든 지능이다. 챗봇은 자신을 연구하고 개발한 사람들의 영향을 받을 수 밖에 없다. 전 세계 AI 산업에서 가장 앞서 나가는 개발자들을 보면 대부분이 건강하고 젊은 백인 남성"이라며 "장애가 있거나, 백인이 아니거나, 나이가 많거나, 남성이 아닌 사람들에 대해 챗GPT가 내보내는 데이터가 편향될 수밖에 없다"고 지적했다.
또 최 원장은 "우리 사회가 평등하지 않기 때문에 그런 거울화된 데이터를 가지고 트레이닝을 시키면 당연히 편중된 결과를 낳을 수 밖에 없다"며 "챗GPT조차 자신은 잘못된 정보를 줄 수 있고, 편향된 내용이나 해를 끼칠 수 있는 설명을 제공할 수 있다고 말한다. 결국에는 AI 윤리에서 혹은 AI 원칙에서 이야기하는 팩트(사실)와 공정성, 책임성, 투명성의 개념에서 다시 한 번 고민을 해봐야 한다"고 제언했다.
◎공감언론 뉴시스 [email protected]
Copyright © NEWSIS.COM, 무단 전재 및 재배포 금지