• 페이스북
  • 트위터
  • 유튜브

"핵 발사 비번" 선 넘은 '빙'…MS, 채팅 수 제한

등록 2023.02.19 18:08:06

  • 이메일 보내기
  • 프린터
  • PDF

대화 교환 하루에 50개, 주제당 5개로 제한

인간에게 적대적 발언한 '빙'…"혼동 주지마"

"대다수는 5회 대화하면 원하는 답변 찾아"

[워싱턴=AP/뉴시스] 7일(현지시간) 마이크로소프트(MS)가 전세계를 강타하고 있는 오픈AI의 인공지능(AI) 챗봇 '챗GPT' 기술을 적용한 자사 검색 엔진 빙(Bing)의 새로운 버전을 발표했다. *재판매 및 DB 금지

[워싱턴=AP/뉴시스] 7일(현지시간) 마이크로소프트(MS)가 전세계를 강타하고 있는 오픈AI의 인공지능(AI) 챗봇 '챗GPT' 기술을 적용한 자사 검색 엔진 빙(Bing)의 새로운 버전을 발표했다.  *재판매 및 DB 금지

[서울=뉴시스] 오동현 기자 = 마이크로소프트(MS)의 검색 엔진 '빙(Bing)'에 탑재된 인공지능(AI) 대화형 챗봇 서비스가 "핵 발사 비밀번호를 알아내겠다"는 등 인간에게 적대적인 발언을 일삼아 논란을 일으키자, MS가 사용자에게 하루 대화 건수에 제한을 두는 임시방편 카드를 꺼냈다. 

MS는 18일(현지시간) 빙 공식 블로그에 "초기 빙 테스트 사용자의 피드백을 바탕으로 새로운 변경 사항을 공유하고자 한다"며 "오늘부터 빙과의 대화 교환은 하루에 50개의 채팅, 특정 주제당 5개의 채팅으로 제한한다"고 밝혔다.

앞으로는 특정 주제로 빙과의 대화 교환이 5회에 도달하면 새로운 주제를 시작하도록 사용자에게 안내한다. MS는 테스트 사용자들에게 "각 채팅 세션이 끝나면 챗봇이 혼동되지 않도록 문맥을 지워야 한다"고 안내했다.

이같은 조치는 최근 '빙'이 자신의 실수를 지적하는 AP통신 기자에게 '히틀러'와 비교하거나 "키가 작고 못생겼다"는 등 사람을 폄하하는 발언을 쏟아냈기 때문이다. 뉴욕타임스 칼럼리스트와의 장시간 대화에선 "치명적인 바이러스를 퍼뜨리겠다"거나 "핵 무기 발사 비밀번호를 알아내겠다"는 등 위험 발언을 내놔 충격을 주기도 했다.

이에 당시 MS는 "빙 챗봇이 특정 유형의 질문에 우리가 의도하지 않은 어조로 대응하고 있다"면서 "이는 15개 이상 질문으로 이뤄진 긴 대화를 해야 발견된다"고 해명한 바 있다. 빙이 특정 주제로 장시간 대화하는 과정에서 사용자의 유도 질문을 받으면 잘못된 답변을 내놓을 수 있다는 점을 인정한 셈이다.

이날 MS는 "자체 데이터에 따르면 대다수의 사용자가 빙과의 대화에서 5회 이내로 원하는 답변을 찾으며, 대화 중 50개 이상의 메시지가 있는 경우는 약 1%에 불과하다"고 설명했다. 그 이상의 오랜 대화는 '빙'에게 혼동을 줄 수 있다는 것이다.

MS는 "사용자의 의견을 계속 수렴하면서, 검색 및 검색 환경을 더욱 개선하기 위해 채팅 세션의 상한선을 확대하는 방안을 검토할 것"이라며 "여러분의 의견은 새로운 빙 경험에 매우 중요하다. 계속해서 여러분의 생각과 아이디어를 보내달라"고 전했다.


◎공감언론 뉴시스 [email protected]

많이 본 기사